Capitolo 3: SPM: un'analisi più approfondita

L'era della microscopia a scansione a sonda (vedi sezione 2.6) si apre ufficialmente nel 1981, anno in cui G. Binnig e H. Röhrer, due ricercatori dell'IBM di Zurigo, ideavano e realizzavano uno strumento che cinque anni dopo avrebbe procurato loro il premio Nobel per la Fisica: L'STM. Nello stesso anno del conferimento di tale premio Nobel sarebbe stato inventato, sempre da G. Binnig in collaborazione stavolta con C. Quate e C. Gerber, un nuovo microscopio a scansione a sonda derivato dal primo: l'AFM. Oggi, a distanza di meno di vent'anni esistono varie decine di strumenti generati dall'evoluzione di questi due capostipiti, che restano comunque i due tipi fondamentali di SPM, ed almeno una decina di importanti produttori internazionali di questi strumenti (vedi sezione 4.5), con varie migliaia d'installazioni nei laboratori di ricerca di tutto il mondo.

3.1 Caratteristiche generali

Nel capitolo 2 sono stati riportati brevemente i principi fondamentali alla base di queste due tecniche di base della microscopia a scansione a sonda, senza entrare nel merito delle varie modalità operative. In questo capitolo viene affrontata nel dettaglio la relativa descrizione, ponendo in particolare grande attenzione alla descrizione delle caratteristiche fisiche comuni e distinte, per cui sono evidenziate le analogie e le differenze tra STM e AFM, sempre distinguendo sia l'aspetto fisico (principi di funzionamento), con cenni di teoria elementare, che a quello sperimentale pratico-operativo (modalità d'operazione e artefatti nei risultati). Il risultato è una panoramica concisa ma esauriente dedicata a coloro che non sono pratici delle tecniche in questione. Vogliamo quindi, innanzitutto, prima di entrare nel dettaglio dei vari strumenti, introdurre qui alcune caratteristiche generali a loro comuni.

3.1.1 Il principio di funzionamento

La microscopia a scansione a sonda (detta anche a stilo o a campo prossimo) si basa sulla possibilità di effettuare scansioni tridimensionali della superficie di un campione tramite una sonda, che interagisce localmente con esso. La diversa natura dell'interazione (e quindi le caratteristiche della sonda) da luogo alle numerose varianti dei microscopi a scansione a sonda, (SPM, Scanning Probe Microscopy). Gran parte dei concetti di funzionamento sono tuttavia comuni alle varie implementazioni.
Sostanzialmente, dopo aver posto la sonda in prossimità del campione quando non addirittura in contatto (si parla comunque di distanze  200 nm), si misura l'interazione di questa con la superficie del campione in corrispondenza di vari punti (X,Y), relativi al piano di base del campione. La sonda viene spostata tra questi punti con un movimentatore adeguato, in modo da percorrere un movimento detto "raster", come in Fig. 3.1. Spesso inoltre le righe percorse nei due versi opposti vengono utilizzate per collezionare due diverse immagini, dette forward e backward, utilizzate per verifica incrociata l'una dell'altra e per altre considerazioni, come la misura dell'attrito (vedere sottoparagrafo 4.2.1.1). In questo modo viene "rastrellata" tutta la superficie d'interesse del campione, all'interno di una determinata area selezionata (si parla di "spazzata", per la dimensione lineare del tipico riquadro quadrato della superficie di scansione).



Fig. 3.1: il movimento relativo sonda-campione in un generico SPM. Si tratta di uno spostamento simile a quello del pennello elettronico in un tubo catodico (ad esempio un oscilloscopio o un normale televisore), e come quest'ultimo consente di ricavare un'immagine completa da un insieme di punti.


L'entità dell'interazione, quale che essa sia, dipende essenzialmente dalla distanza punta-campione, oltreché, ovviamente, da eventuali fenomeni chimici locali. Pertanto, mappando l'intensità dell'interazione lungo i suddetti punti si può ottenere un'immagine del campione. La distanza tra i punti campionati determina la risoluzione dell'immagine.

3.1.2 Il movimentatore piezoelettrico

Un componente fondamentale di ogni microscopio a scansione SPM è il trasduttore (detto anche movimentatore o attuatore) che serve a muovere il campione rispetto alla punta nel modo desiderato. Questo componente deve essere in grado di eseguire spostamenti nel range di alcuni micron con precisione dell'ordine dell'Ångström, in modo da permettere di raggiungere la risoluzione atomica. I trasduttori piezoelettrici sono i candidati ideali per questo compito.
L'effetto piezoelettrico, scoperto da P. Curie nel 1880, è la capacità di certi materiali cristallini di sviluppare una carica elettrica quando subiscono una deformazione, mentre l'effetto piezoelettrico inverso è la capacità di deformarsi proporzionalmente al potenziale applicato. Questi effetti si riscontrano in alcuni cristalli naturali (come quarzo e sale di Rochelle) e non (diidrogeno fosfato di ammonio) ma anche in alcune ceramiche ferroelettriche. La maggior parte delle ceramiche piezoelettriche cristallizzano con una struttura a perovskite, (vedere la figura successiva).
La struttura cubica in figura viene assunta stabilmente al di sopra di una certa temperatura nota come temperatura di Curie; in questo caso il materiale non presenta dipoli. Al di sotto della temperatura di Curie, invece, la cella unitaria (quella parte elementare che si ripete a formare il cristallo macroscopico, vedi "Introduzione alla Fisica dello Stato Solido") acquista una simmetria tetragonale, in cui i siti delle cariche positive e negative non coincidono più, e questo porta alla creazione di un dipolo elettrico, che può essere invertito o inclinato tramite un certo campo elettrico: i materiali piezoelettrici sono quindi di natura ferroelettrica (cioè posti in un campo elettrico si polarizzano elettricamente generando a loro volta un campo nello stesso verso di quello applicato). La differenza con gli altri materiali ferroelettrici sta nel fatto che, alla creazione del dipolo (e quindi del campo di dipolo), si accompagna una deformazione del cristallo. Per ottenere un effetto piezoelettrico nell'intero cristallo occorre comunque ordinare i domini di Weiss (piccole porzioni mesoscopiche, cioè di dimensioni intermedie tra micro e macroscopiche, che si orientano) attraverso un processo di polarizzazione operato tramite l'esposizione ad un forte campo elettrico: quando il campo viene rimosso i dipoli rimangono bloccati e la ceramica acquista una polarizzazione ed una deformazione permanente.



Fig. 3.2: la struttura a perovskite, tipica delle ceramiche piezoelettriche, presenta una cella unitaria cubica con otto cationi (ioni positivi, che vanno verso un ideale catodo, polo negativo) bivalenti sui vertici, un catione tetravalente più piccolo al centro, e sei anioni (ioni negativi) ossigeno al centro delle facce.


Sono stati sviluppati ed esistono in commercio trasduttori piezoelettrici di diverse caratteristiche, che consentono la movimentazione voluta. In particolare due geometrie nel corso del tempo hanno trovato fortuna, quella a tripode, storicamente anteriore ma rivalutata di recente, e quella, più comune, cilindrica, si veda la figura seguente.



Fig. 3.3: l'aspetto di alcuni movimentatori piezoelettrici: a) struttura a tripode, in cui ciascuno dei tre parallelepipedi fornisce lo spostamento lungo l'asse relativo, in maniera indipendente, e b) struttura a cilindro. In quest'ultima la polarizzazione elettrica che garantisce lo spostamento avviene grazie ad un sistema di elettrodi esterni divisi in quattro quadranti, accoppiati gli uni con gli opposti in configurazione detta differenziale (cioè con applicazione di tensioni +DV ad uno, -DV all'opposto). All'interno è inoltre presente un elettrodo cilindrico Z unificato, che si estende lungo tutto il tubo.


3.1.3 Il sistema di feedback

Abbiamo detto che l'informazione base della microscopia, cioè quella sulla morfologia del campione (detta topografia) viene ricostruita dalla misura di un segnale che dipende in maniera critica dalla distanza sonda-campione. Tuttavia una precisa legge intensità-distanza per la grandezza rilevata risulta spesso esistere solo entro una determinata zona di lavoro intorno al punto ottimale prefissato (il Setpoint o Reference) del valore iniziale dell'interazione, e quindi della distanza. Spesso se ci si sposta in maniera critica da questo punto, uscendo da un certo intervallo (range) consentito, si incontrano problemi d'interpretazione delle immagini, danneggiamento dei campioni e talora anche dell'apparato SPM (sostanzialmente la sonda). Pertanto il segnale d'interazione punta-campione viene raramente rilevato ed utilizzato per costruire l'immagine "ad anello aperto", ma piuttosto si usa generalmente un sistema in cui è stato inserito un ciclo di feedback che lo tiene costante. Il dettaglio di queste due fondamentali modalità d'operazione (con o senza feedback) ed i relativi pro e contro sono profondamente dipendenti dalla diversa natura degli strumenti, se STM ed AFM, e sono pertanto affrontati successivamente (si vedano i paragrafi 3.2.1 e 3.3.3). Tuttavia giova qui introdurre le caratteristiche fondamentali del sistema di feedback, comune ai due strumenti, anche perché dal funzionamento di questa parte essenziale dei microscopi a scansione a sonda possono derivare alcuni artefatti riscontrabili nelle immagini ottenute.



Fig. 3.4: a) diagramma a blocchi di un generico controllo in ciclo di feedback di tipo PID, con b) la rappresentazione schematica della risposta in frequenza delle ampiezze delle tre componenti Proporzionale (P), Integrale (I) e Derivativa (D). Come s'intuisce, I e D servono ad isolare ed evidenziare le frequenze tipiche dei profili del campione rispetto a quelle troppo basse (che possono essere derive del segnale Z) o alte (essenzialmente rumore di vario tipo). P serve invece principalmente per fornire un primo impulso forte ("shot") e indipendente dalla frequenza in modo da annullare istantaneamente gran parte dell'errore, poi "rifinito" dalle componenti del feedback sensibili alla frequenza.


I sistemi di feedback più comunemente utilizzati, non solo nella microscopia SPM, sono controlli di tipo PI, cioè Proporzionale e Integrale. Più raramente si incontrano sistemi PID dove è presente un'ulteriore componente, detta Derivativa. Questo significa che il segnale originale rilevato, denominato "errore" (E) in quanto viene misurato come deviazione dal Setpoint che si vuole mantenuto costante dal circuito di controllo in feedback, viene separato in più canali, ognuno trattato con una caratteristica risposta in frequenza, e cambiato di segno, in quanto lo scopo è appunto annullare l'errore.
Il feedback Proporzionale risponde ad un segnale d'errore E generando un segnale ad esso proporzionale (ed opposto), P = -pE. È evidente che quindi si tende sì ad annullare l'errore, ma in maniera che mai potrà portare ad una situazione di equilibrio stabile: col solo P si avrebbe una continua oscillazione intorno al setpoint, perché non appena p supera 1, E semplicemente cambia di segno. Occorre quindi una componente che consideri la media delle deviazioni nel tempo, e questo ruolo è svolto dal feedback Integrale, che risponde, in linea di principio, con un segnale I = (1/ti E dt, cioè reagisce in effetti alla media della deviazione su di un tempo caratteristico ti che costituisce un parametro proprio della data componente. Quindi, diversamente dal P, che ha un parametro p che regola solo l'intensità della risposta, in I il parametro ti entra sia come 1/ti a fattore di proporzionalità che come estensione dell'intervallo temporale su cui si somma l'E cui si vuole reagire, il che ha un effetto molto importante sulla qualità delle immagini; infatti è evidente che a seconda del tempo sul quale si integra l'errore E questo può risultare nullo, se ha in quel periodo tante variazioni positive quanto negative che danno media nulla, o anche molto diverso da zero.
In pratica il filtro Integrale è assimilabile ad un circuito RC Integratore (R e C stanno per resistenza e condensatore, vedi figura successiva, parte a)), che ha una precisa risposta in frequenza e risulta essere un filtro passa-basso. Il fatto di "addolcire" la reazione del Proporzionale con una componente che tiene conto delle variazioni dell'errore su intervalli di tempo, consente in pratica, come si può ben intuire, di ottenere la convergenza del sistema, cioè la situazione in cui, per un set di parametri di feedback (P,I) funzionante, risulta che E tende a zero per t (istante temporale attuale) che tende a infinito; non solo, si spera di avere una convergenza del segnale entro periodi ragionevolmente limitati, dell'ordine di tempi pari appunto al tempo caratteristico ti, a parte qualche oscillazione (diciamo entro 2 o 3 ti). Spesso si descrive il comportamento tipico di un sistema PI in reazione ad un segnale d'errore a scalino (cioè, nel caso della topografia, ad un singolo "scalino" di salita, o discesa, del profilo di quota del campione). La risposta ad uno scalino, benché possa sembrare un caso molto particolare, in realtà può essere considerata come quella più generale, che ben descrive il sistema, in quanto ogni rilievo topografico, ad un ingrandimento sufficientemente elevato, può essere visto come un susseguirsi di piccoli scalini, (si ripensi al concetto di integrale); e in effetti si lavora sempre, anche con controller analogici, con segnali che hanno una risoluzione limitata (quella delle immagini, che deriva dalla frequenza spaziale di campionamento lungo la traiettoria punta-campione), e quindi le cui "pendenze" sono sempre approssimate da sequenze di piccoli scalini squadrati.
La terza componente del feedback cui si è accennato all'inizio come Derivativa dà un contributo da sommare all'errore pari a D = - td(dE/dt)|td (dove l'ultima parte sta per "calcolata all'istante td dopo l'istante iniziale, considerato zero"); cioè proporzionale ad una certa approssimazione della derivata temporale di E (in pratica il rapporto incrementale dopo un tempo td). Anche in questo caso il parametro proprio della componente, il tempo caratteristico td, determina due effetti: uno di fattore moltiplicativo ed uno che dice su quale intervallo di tempo si calcola la "derivata", che in realtà è sempre un rapporto incrementale finito. Il Derivativo svolge una funzione opposta a quella dell'Integrale: risulta essere di fatto un l'equivalente di un circuito RC derivatore cioè un filtro passa-alto, che privilegia le alte frequenze presenti nel segnale non filtrato. Infatti il risultato è che il Derivativo si usa raramente, non solo in microscopia SPM ma anche in diversi altri sistemi, in quanto le alte frequenze da esso privilegiate provengono spesso da rumore ed effetti di disturbo derivanti dall'ambiente (spike di natura elettronica o meccanica, vedi sottoparagrafi 1.2.2.4, 1.2.2.5), per cui la componente D tende a far divergere il segnale dal vero segnale dovuto al profilo del campione (mentre l'I è fondamentale in quanto lo fa convergere). È un po' come se D anticipasse e amplificasse le reali variazioni di E, effetto non sempre desiderato, se non per enormi valori di E. D'altronde con un Derivativo si evidenziano le vere porzioni di segnale ad alte frequenze, come ad esempio i bordi degli scalini, mentre con l'Integrale questi vengono sempre inevitabilmente più o meno stondati (blurring, di nuovo si vedano i sottoparagrafi di cui sopra).



Fig. 3.5: a) schema elettrico di un circuito RC integratore tramite il quale è possibile implementare la componente Integrale del feedback in maniera analogica. Si tratta di un filtro passa-basso con frequenza di taglio 1/ti, dove la costante tempo caratteristica in questo caso è ti=RC. b) Analogamente per un circuito RC derivatore (filtro passa-alto). La costante tempo td è sempre pari a RC. Questi filtri o componenti del feedback in un SPM sono oggi sempre più spesso realizzati in maniera digitale, tramite software integrato su chip, con metodi DSP (Digital Signal Processing).


3.1.4 Integrazione con un microscopio ottico

Una cosa è a questo punto opportuno osservare: l'impiego di un microscopio SPM non esclude l'utilizzo in parallelo di un microscopio ottico, anzi lo prevede quasi sempre, come strumento di appoggio combinato con esso.



Fig. 3.6: partendo da sinistra, in un tipico SPM (in particolare un AFM) home built si possono osservare il monitor del PC collegato allo strumento per l'acquisizione e la visualizzazione delle immagini; i moduli dell'elettronica di pilotaggio (scansione X-Y) e di controllo (feedback Z); la testa di misura (head) dello strumento, con un soprastante microscopio ottico.


Ad esempio nella figura precedente, dove è possibile distinguere per un tipico AFM non commerciale (ovvero "fatto in casa" come si suol dire anche in Inglese: "home built") i vari componenti principali (vedi legenda), fa bello spicco anche un elementare microscopio ottico.
Il microscopio ottico è sempre utile come accessorio di un SPM in quanto consente di osservare il posizionamento (X,Y) della sonda sul campione e di verificare la loro distanza relativa Z in fase di avvicinamento. È in particolare importante poter controllare dove si va ad interagire con la sonda sul campione, in modo da analizzare determinate porzioni di quest'ultimo, alla ricerca di informazioni specifiche (ad esempio in prossimità di un'area del campione che, al microscopio ottico, sembra oggetto di particolare interesse, per morfologia o colore). In pratica, cioè, è possibile in un certo senso utilizzare il microscopio ottico per posizionarsi in una zona microscopica del campione, e poi "zoomare" su di essa passando all'analisi SPM, su scala nanoscopica. Questo procedimento, utile specialmente per l'analisi di campioni biologici (che spesso presentano sub-unità particolari del campione sulle quali ci si vuole concentrare, come cellule, molecole, microorganismi, etc.), è rappresentato nella figura successiva, per un AFM.



Fig. 3.7: nelle immagini a sinistra si può vedere il biologo che osserva un determinato campione (nella fattispecie i domini determinati da microsfere di polistirene di diametro 250 nm che, in sospensione in una soluzione acquosa sgocciolata su un vetrino e poi essiccata, si sono disposte in chiazze vuote unite da contorni ricoperti) e l'immagine da lui osservata (diametro 400 nm). In questo caso l'utente è interessato ad analizzare con la sonda AFM (la punta sotto il vertice di una microleva triangolare) solo le "croste" cioè le zone occupate dalle sfere, che sono i bordi delle strutture nell'immagine ottica di cui sopra (fila inferiore, a sinistra), le quali tuttavia costituiscono una minima parte della superficie del vetrino. Quindi "centra" l'oggetto del suo studio con l'ausilio del microscopio ottico, e poi (immagini a destra) "passa" allo strumento SPM (qui AFM) per ottenere un'immagine locale a ingrandimento molto superiore, (quella che si vede è una schermata di un tipico software di acquisizione. La scansione era di 5xmm2.


3.1.5 Gli artefatti comuni nelle immagini STM-AFM

La conoscenza degli artefatti (artifacts) è fondamentale per non cadere in errori di interpretazioni delle immagini a posteriori, ed essere anzi in grado di apportare all'apparato le modifiche per minimizzare la loro influenza già durante le misurazioni SPM, (modifiche sulle quali si è dato qualche cenno generale in apertura della presente opera, si veda il paragrafo 1.2.2). Esistono artefatti comuni ad entrambe le tecniche STM ed AFM, ed altri artefatti che, pur potendo in linea di principio verificarsi in entrambe le tecniche, di fatto si manifestano in maniera specifica di ciascuna tecnica con modalità diverse. Nel presente paragrafo affronteremo i primi, lasciando questi ultimi alle sezioni dedicate separatamente alle microscopie STM e AFM.

3.1.5.1 Distorsioni del movimentatore piezoelettrico

I movimentatori piezoelettrici presentano un andamento tipico di risposta dello spostamento alla tensione applicata Di(Vi), con i = x, y o z, che può essere descritto teoricamente dal ben noto ciclo d'isteresi:


Fig. 3.8: andamento qualitativo del ciclo teorico di polarizzazione P o spostamento D (ad essa sostanzialmente proporzionale) di un generico piezoelettrico in funzione del campo E o della tensione V applicati, (all'interno delle parentesi sono riportate le unità di misura caratteristiche delle grandezze). La curva interna rappresenta l'andamento della prima polarizzazione, diversa dalle successive. L'area racchiusa dal ciclo è collegata all'energia dissipata dal sistema di alimentazione, che ha ordinato in maniera irreversibile (a parte l'ageing del piezo,) un certo numero di dipoli nel materiale.


Volendo analizzare questo andamento innanzitutto si nota che si tratta di una curva a tratti non lineari: a parità d'incremento di tensione V0, in corrispondenza di diverse zone di uno stesso ramo della curva (ad esempio quello inferiore) si possono avere incrementi di spostamento differenti, d e D: in particolare vicino al centro ("pancia") del ciclo d'isteresi la sensibilità apparente del piezoelettrico (Si=DDi/DVi, dove i = x, y o z e le delta rappresentano come sempre quantità associate ad ampiezze d'intervalli della grandezza in questione) è maggiore. Si parla di "nonlinearità intrinseca" dei movimentatori piezoelettrici, e l'effetto è appunto che, nella griglia ideale di campionamento coperta dal movimento raster di cui al paragrafo 3.1.1, alcuni punti in realtà non saranno equispaziati, come si può osservare dalla seguente immagine.



Fig. 3.9: griglia di calibrazione di Silicio con pitch 10 mm (scansione di un'area quadrata di lato nominale, ovvero Spazzata, 40 mm). Come atteso dalla curva d'isteresi del piezo, lungo l'asse di scansione X i riquadri appaiono sempre più larghi a inizio scansione (cioè a sinistra per l'immagine forward, a destra per la backward). Lo shift apparente tra le posizioni alle estremità è anch'esso dovuto ai diversi valori locali della sensibilità del piezo Sx=Sx(x). Tra gli altri artefatti si nota la differenza tra Sx e Sy (quest'ultima assai superiore), oltre ad ondulazioni lungo X dovute a noise elettronico o meccanico e a particelle di contaminanti; la riga in alto a destra è invece un graffio sulla griglia, lasciato per riferimento della posizione.


Inoltre, all'andamento in un verso (ad esempio, tensione crescente) corrisponde un certo ramo della curva (quello inferiore), e all'andamento nell'altro verso (tensione crescente) il ramo complementare del ciclo (ramo superiore). Quindi, benché vicino agli estremi i valori siano assai prossimi, tuttavia sempre in corrispondenza della pancia a parità di tensione ma per andamento opposto (crescente o decrescente) la punta si troverà in posizioni assai diverse. Questo comportamento ha un effetto particolarmente notevole soprattutto per la risposta del piezoelettrico lungo l'asse cosiddetto di scansione veloce (quello delle righe, cioè X), in quanto comporta un notevole shift (spostamento relativo) delle features (strutture caratteristiche) incontrate nelle immagini in prossimità del centro tra immagini forward e backward; questo shift può raggiungere fino al 15% della spazzata.

Un altro fenomeno di distorsione legato alla risposta dei piezoelettrici è il creep: si tratta sostanzialmente del ritardo con cui risponde il piezoelettrico, che, in corrispondenza di bruschi cambiamenti di tensione applicata, effettua lo spostamento in due porzioni, una prima, Ds, quasi istantanea, nel giro di pochi ms (millisecondi), ed una seconda, Dsc, in un tempo caratteristico molto maggiore. Il rapporto Dsc/Ds tra queste due porzioni raggiunge finanche il 20% in casi limite. Il fenomeno si manifesta in questo caso, contrariamente all'isteresi, in misura più eclatante all'occorrenza dell'inizio della scansione di una riga (dove si ha uno "scalino" di tensione Vx), e cioè in corrispondenza dei punti d'inversione forward-backward per la scansione sul piano (lungo X), mentre può avere effetti rilevanti anche lungo Z, nel rispondere a sollecitazioni dovute a strutture topografiche ben nette e di dimensioni elevate, ("scalini" veri e propri del campione, come ad esempio su un pattern di una sezione di chip di circuiti microelettronici integrati, dove si hanno salti topografici con spigoli netti, grazie alle tecniche di produzione, e relativamente alti, con dislivelli dell'ordine del micron).
L'effetto del creep su uno scalino topografico z è in pratica un fenomeno di creazione di un contrasto eccessivo ai bordi del tutto analogo a quello dell'overshoot (e/o undershoot) del feedback proporzionale (vedere più avanti la sezione 3.1.5.3).



Fig. 3.10: gli effetti del creep nella risposta di un movimentatore piezoelettrico alle brusche sollecitazioni. La traccia inferiore rappresenta la tensione applicata (che dev'essere comunque relativamente elevata, cioè prossima ai limiti superiori previsti dal movimentatore, per generare un creep sensibile), in pratica un finto "scalino" di natura direttamente elettrica, mentre la traccia superiore rappresenta lo spostamento compiuto dal piezo in risposta alla suddetta sollecitazione.


Un altro fenomeno indesiderato associato al comportamento dei piezoelettrici è il loro "invecchiamento" (ageing), cioè il fatto che le loro sensibilità nelle tre direzioni ortogonali X, Y e Z cambiano col tempo, in genere diminuendo. L'andamento è quello di un decadimento esponenziale, qualora lo scanner non venga utilizzato per lunghi periodi, mentre se l'utilizzo alle alte tensioni (grandi spazzate) è costante nel tempo in realtà praticamente non si osserva diminuzione, anzi le sensibilità possono addirittura crescere leggermente. Questo perché la polarizzazione residua dei cristalli della ceramica trova giovamento dalle ripetute sollecitazioni, che tendono ad allineare un numero sempre maggiore di singoli dipoli (o domini di singoli dipoli), mentre al contrario con l'inutilizzo l'orientamento residuo si perde. Comunque è per queste variazioni che si rendono necessarie, in genere, misure di calibrazione degli scanner piezoelettrici su campioni regolari con passi noti (griglie di calibrazione) con una certa regolarità, di norma almeno una volta ogni sei mesi.

Resta infine da segnalare, legato alla geometria del movimentatore piezoelettrico più che alle proprietà intrinseche del materiale, il fenomeno del cosiddetto cross-talk tra gli spostamenti sul piano (X,Y) e quello lungo l'asse Z ad esso ortogonale. Questo accoppiamento è dovuto al fatto che l'estremità libera dello scanner, quella che si muove all'interfaccia punta-campione, percorre, durante i movimenti di scansione X e Y, traiettorie su una calotta sferica invece che su un piano. In effetti, prendiamo il caso di uno scanner cilindrico di lunghezza L=5 cm che sia in grado di effettuare spazzate massime S di 50 micron, (si tratta di valori tipici). Il cilindro si distorce "a strati" lungo tutta la sua lunghezza, in modo che all'estremità libera lo spostamento massimo corrisponda alla spazzata di cui sopra. Conti precisi sono stati sviluppati con metodi di analisi agli elementi finiti (Finite Element Method, FEM), dove cioè lo spostamento meccanico interno ai corpi ed i relativi stress ovvero pressioni interne vengono calcolati al computer risolvendo in realtà un modello del corpo in cui questo è costituito da molte piccole parti a mosaico, come nel concetto di integrale. Tuttavia, pur senza eseguire calcoli accurati, si può considerare in prima approssimazione che il piezo sia equivalente ad un'asta rigida che semplicemente ruota intorno a un fulcro; questo è spostato rispetto all'estremità fissa del tubo piezoelettrico, proprio in virtù del fatto che la curvatura è continua e progressiva, e quindi il braccio di rotazione presenta una lunghezza efficace minore di quella del piezo benché comunque dello stesso ordine di grandezza, diciamo circa la metà. In tal caso l'angolo tra il centro dello scope (campo d'azione) del piezo, (spostamento zero, cilindro diritto) e un'estremità di questo (spostamento ±S/2, cilindro alla massima curvatura) è, nell'ipotesi di piccoli angoli, (S/2) / (L/2) = 50x10-6 / 5x10-2 = 1 mrad (milliradiante). Questo comporta uno shift lungo Z pari a 50 micron x sen(0,001) ~ 9x10-4 micron  1 nm. Quindi le immagini presentano sempre una leggera curvatura, convessa o concava a seconda che la parte movimentata dal piezo sia il campione o la sonda. Questa curvatura è normalmente rimossa a posteriori con procedimenti di sottrazione della superficie che fitta i dati risultati dalla misura, in assenza di grandi scalini, mediante una funzione quadratica di X e Y (vedi sottoparagrafo
1.2.2.2).



Fig. 3.11: a) il movimento caratteristico di un piezo cilindrico, amplificato notevolmente nel disegno per sottolinearne l'effetto, (in realtà la rappresentazione non è in scala in quanto il rapporto tipico tra spazzata e lunghezza del piezo è dell'ordine di 1:100). A fianco b) è possibile vedere l'immagine di un campione piatto, vetro, alla spazzata massima del piezo utilizzato (10 mm), che evidenzia, oltre ad una distribuzione uniforme di piccole strutture superficiali (grani), la superficie di sottofondo (background) comunemente sommata dal piezoelettrico a tutte le immagini, ma altrove nascosta da caratteristiche topografiche di superficie più eclatanti.


3.1.5.2 Deriva termica

Il fatto di non operare in un ambiente perfettamente termostatato provoca la dilatazione dei materiali che compongono la testa di misura. Le cause principali di assenza di equilibrio termico sono la mancanza di isolamento della camera di misura dall'ambiente esterno, che può subire variazioni di temperatura, e l'uso di lampade per l'illuminazione del microscopio, in fase di preparazione della misura, le quali riscaldano il corpo dello strumento. Il problema fondamentale è che la testa di misura è spesso composta da materiali eterogenei (alluminio, ottone, acciaio) che presentano coefficienti di dilatazione termica anche molto diversi, e comunque esistono geometrie particolari che si prestano, anche in caso di materiali omogenei, a variazioni relative di posizione tra le due estremità del cosiddetto "anello meccanico" SPM punta-campione, le quali variazioni possono essere di notevole entità rispetto alle dimensioni delle scansioni. Per esempio, in assenza di una stabilizzazione termica, cioè se si accende lo strumento (alimentatori ad alta tensione) e si pretende di effettuare subito misure utili senza attendere dei tempi adeguati di stabilizzazione, se si fanno due immagini consecutive, una seguita dall'altra da un tempo di 2-3 minuti circa, si possono ottenere particolari topografici shiftati tra le immagini di alcune centinaia di nanometri, il che corrisponde ad una velocità di drift (deriva) di circa 40 Å/sec, valore tipico. Normalmente la deriva termica diventa trascurabile permettendo allo strumento di "termalizzare", con tempi di attesa dell'ordine dell'ora. In ogni caso a risoluzione atomica, dove le ampiezze di scansione sono di poche decine di Ångström, gli effetti di deriva termica possono comunque cambiare completamente il punto di misura, o almeno deformare le caratteristiche del campione visualizzate, allungandole nella direzione del drift. In generale è possibile affermare che gli effetti della deriva termica si manifestano in maniera evidente quando il valore della velocità di drift non è trascurabile rispetto alla velocità punta-campione durante la scansione, cioè è confrontabile con essa, ovvero quest'ultima non è molto maggiore. Si può quindi intervenire aumentando la frequenza di scansione di riga fscan (numero di righe percorse al secondo), alzandola da valori tipici di qualche Hertz ai valori limite, superiori di un ordine di grandezza (decine di Hertz), il che è in genere sufficiente a grandi spazzate (dopo la termalizzazione), mentre a risoluzione atomica è possibile aumentare ulteriormente fscan di quasi un ordine di grandezza operando in assenza di feedback (vedere paragrafi 3.2.1 e 3.3.2), opzione resa possibile dal fatto che a risoluzione atomica anche i dislivelli Z sono molto ridotti, dell'ordine di pochi diametri atomici.



Fig. 3.12: in assenza di un'adeguata termalizzazione dello strumento, anche a spazzate relativamente grandi (400 nm in questo caso) la deriva termica mostra i suoi effetti, facendo vedere strutture topografiche (aggregati pressoché circolari) allungate nella direzione del drift relativo punta-campione. Dallo spostamento del medesimo punto da P in P', considerato che tra le due acquisizioni sono intercorsi (a fscan=4 Hz per un'immagine di 128x128 pixel) circa 35 secondi (128 righe / 4 Hz più 3 secondi di tempi morti), essendo la distanza P-P' circa 200 nm, si ricava una velocità di drift di circa 57 Å/sec. Il campione è un film sottile di rodopsina, una proteina.


3.1.5.3 Problemi del feedback

Occorre infine considerare che le immagini vengono ricostruite a partire dal segnale Z fornito al movimentatore piezoelettrico per annullare la variazione di segnale originale rilevato dalla sonda, cioè l'errore E, e non da questo stesso segnale originario (E). Quindi l'immagine presenta una caratteristica fondamentale che è la "fedeltà" al campione, requisito di base per la sua interpretazione, e questa proprietà dipende essenzialmente dalla bontà di funzionamento del sistema di feedback: quanto più fedelmente il piezo segue, con movimenti complementari, la variazione della topografia, tanto più l'immagine sarà innanzitutto una riproduzione ottimale del profilo del campione. Abbiamo già introdotto brevemente le caratteristiche generali di funzionamento dei più comuni sistemi di feedback (paragrafo 3.1.3), il che ci consente di comprendere le problematiche ad essi associate.
Ritornando ai problemi che si possono incontrare in un controllo PI non operante in maniera ottimale, gli artefatti consueti si hanno in caso di P troppo elevato (rispetto a I), per cui, prima che l'I provveda ad agire (il che avviene su un tempo circa pari a ti) il segnale cresce (o cala) troppo oltre il Setpoint, dando origine al cosiddetto overshoot, oppure, nel caso opposto di I troppo elevato (rispetto a P), causando un eccessivo arrotondamento dei profili netti (blurring), corrispondente ad una reazione che grava troppo "sulle spalle" del solo I, ed evidenzia il suo comportamento dipendente nel tempo (ovvero la risposta in ritardo), cosa che si manifesta visibilmente quando il tempo caratteristico ti è troppo elevato (feedback "lento"). L'overshoot genera in pratica bordi multipli (nel caso limite raro di più oscillazioni prima dello smorzamento) o almeno un bordo (picco) "extra" che si estende oltre al valore reale della struttura topografica, con un effetto apparente di "cicatrice", come se si avesse del riporto di materiale in eccesso al bordo dello scalino, e che quindi può essere confuso con una caratteristica reale del campione. Si parla di ghosting (striscia chiara sui bordi in salita, scura su quelli in discesa). Vista la sua sensibilità alla direzione del moto relativo, l'overshoot può essere tuttavia smascherato facilmente con un controllo incrociato delle immagini forward e backward. Tale effetto è lo stesso del creep (come visto più sopra), sul quale comunque in genere domina.
Una delle deviazioni pratiche che si riscontrano comunemente nelle immagini proprie della tecnica AFM rispetto al suddetto comportamento teorico generale è che l'overshoot "in salita" (o overshoot in senso stretto) è generalmente meno accentuato dell'overshoot "in discesa" (detto anche undershoot), in quanto nel primo caso si ha sempre la forza elastica della microleva che tende a compensare l'eccesso d'impulso fornito dal P, mentre nel caso opposto i due effetti vanno nella stessa direzione.
Tutti questi problemi e molti altri ancora, più specifici delle singole tecniche STM e AFM (paragrafi 3.2.2 e 3.3.4), possono essere affrontati e rimossi parzialmente col successivo trattamento delle immagini ottenute (vedi paragrafo 1.2.2), anche se è sempre meglio cercare di ridurli il più possibile già in fase di acquisizione dei dati.

3.2 L'STM nel dettaglio

Il microscopio può operare in diverse modalità, di seguito specificate.

3.2.1 Modalità operative STM

Innanzitutto definiamo, per negazione, quelle che ci proponiamo di classificare come modalità standard: intenderemo con questo termine tutte le tecniche non spettroscopiche (quali siano queste ultime sarà chiaro più avanti, nel capitolo 4).
In modalità standard l'utilizzo dello strumento può essere distinto ulteriormente in altre due (sotto-) modalità (vedere figura successiva), che andiamo a descrivere.

3.2.1.1 STM a "grandezza misurata" costante

Nell'STM la "grandezza misurata" che viene mantenuta costante è, evidentemente, la corrente: si è usata questa espressione particolare, benché non esista ambiguità (così come d'altronde per qualsiasi altro dato SPM) per stabilire un parallelismo con l'AFM e in generale con altre tecniche SPM descritte nei prossimi paragrafi, dove cambia di volta in volta la natura dell'interazione punta-campione e quindi la grandezza fisica rilevata come misura di questa. In questa modalità è necessario un controllo sulla posizione Z della parte in moto all'interfaccia oggetto dell'interazione (sonda o campione), al fine di mantenere costante la corrente tra i due "elettrodi" di tunnel; in questo caso è lo stesso segnale finale che va a guidare il piezoelettrico nel suo spostamento Z che riproduce la topografia del campione.
L'apparato necessario per scansione e controllo descritto in Fig. 3.14 è utilizzabile senza bisogno di modifiche in gran parte degli altri microscopi a scansione SPM, a partire dall'AFM. Lo schema a blocchi ivi rappresentato acquista pertanto rilevanza centrale nella comprensione del modo di rilevamento "a grandezza costante", caratteristico delle microscopie a scansione.



Fig. 3.13: modi standard di operazione di un STM: a) a quota costante e b) a corrente costante, con relativa rappresentazione delle grandezze di Input ed Output del sistema "microscopio" nei rispettivi casi. Il vettore X rappresenta il punto (X,Y) sul piano di scansione.


Con riferimento alla Fig. 3.14 possiamo dire che quando durante la scansione varia il gap e quindi la corrente di tunnel IT si discosta dal valore prefissato Iref (il Setpoint o Reference), che corrisponde ad un segnale in uscita dal convertitore corrente-tensione pari a V0, la tensione in ingresso al modulo di controllo Ve (tensione corrispondente al segnale d'errore E) è diversa da zero, e indica di quanto il sistema si è allontanato dalla situazione voluta di corrente costante. Il sistema di feedback deve allora reagire in modo da spostare la posizione Z relativa punta-campione così da riportare il valore di corrente a quello prefissato, ed annullare Ve.
Tutto questo viene realizzato in un certo tempo che si vuole il più breve possibile, cioè il sistema di feedback deve essere piuttosto veloce, se si vogliono realizzare velocità di scansione (e quindi di variazione del segnale da riportare al valore di riferimento) elevate, (a numero di punti campionati fissato, ad esempio 256 per riga di scansione; si consideri che i valori massimi della frequenze di campionamento si aggirano di norma intorno ai 10 kHz).
Il metodo "a grandezza costante" è generalmente preferito perché il sistema di feedback consente di evitare che variazioni topografiche molto elevate che possono essere incontrate sul campione (fino ai micron) comportino l'urto della punta con la superficie del campione stesso, (ricordiamo che la punta deve sorvolare la superficie a distanze dell'ordine del nanometro, un ordine mille inferiori). L'urto rovinerebbe la punta, compromettendone il successivo utilizzo. D'altronde, perché il feedback possa operare correttamente occorre che esso riesca a reagire alla variazione di quota del punto del campione sorvolato in un tempo minore al tempo di spostamento della sonda su un nuovo punto di campionamento. In questa modalità pertanto la frequenza di scansione di riga fscan selezionabile è limitata superiormente dalle prestazioni del circuito elettronico di feedback, per cui valore limite tipico può essere dell'ordine di 10 Hz, che, per un immagine di risoluzione tipica pari a 256x256 pixel corrisponde ad un tempo di acquisizione di 256 righe / 10 righe/sec = 26 sec circa.

3.2.1.2 STM a quota costante

Se si decide di disattivare il sistema di controllo in feedback, e si esegue la scansione mantenendo fissa la posizione z della punta, cioè lavorando a quota costante, è la corrente misurata che passa nel circuito di rivelazione che fornisce direttamente la stima dei rilievi topografici presenti sul campione. Questo metodo di utilizzo dello strumento è conveniente su piccole aree di analisi dei campioni, dove la corrugazione massima è minore di 10 Å, e non si rischia quindi di impattare il campione con la punta, rovinandola. Il vantaggio di tale modalità è che, non avendo bisogno di attendere l'assestamento del sistema durante il moto a particolari condizioni operative, consente di eseguire la scansione a grande velocità (da standard TV in su), con la possibilità di ottenere immagini in tempi rapidissimi, quasi fossero "istantanee" del campione, evitando quindi problemi come ad esempio la deriva termica (sottoparagrafo 3.1.5.2), sempre notevoli a piccole spazzate, soprattutto su scala della risoluzione atomica. Il limite superiore imposto alla frequenza di scansione in questo caso è infatti soltanto quello dovuto alle risonanze meccaniche delle varie componenti, in particolare il movimentatore piezoelettrico, che sono dell'ordine dei 10 kHz.



Fig. 3.14: schema a blocchi di un STM. Un ruolo critico viene svolto dal modulo elettronico di controllo della posizione Z della punta (ovvero della distanza dalla base del campione) in ciclo di feedback (vedere Fig. 3.13 a) per dettagli). V0 è il Setpoint o Reference, valore a cui si vuole mantenere costante il segnale VT, mentre Ve è il segnale d'errore. Si osservi che nell'STM generalmente viene spostata la punta, per ragioni di facilità costruttiva e di basso carico meccanico (piccola massa il che implica inerzia trascurabile) sul movimentatore piezoelettrico.


Il metodo a quota costante risulta però sensibile alla presenza sulla superficie del campione di vapore acqueo o di altri contaminanti, nei quali la punta può affondare durante il suo rapido moto pur senza risentire di forze repulsive elevate come nell'hard-contact col campione vero e proprio, generalmente un solido cristallino o comunque un materiale piuttosto rigido. In queste condizioni (come evidenziato in Fig. 3.13 a)) quello che si rivela con l'STM è veramente più una convoluzione di topografia e funzione lavoro del campione che non la semplice topografia di questo.

È possibile in realtà realizzare una configurazione mista dei due metodi altezza/corrente costante, operando con il circuito di feedback inserito ma sensibile esclusivamente alle lente variazioni del segnale, in modo da rivelare a quota costante le piccole corrugazioni locali fino ai 100 nm ed evitare però l'hard-contact quando si presentino pendenze che conducono a forti dislivelli, perché si segue l'andamento medio della superficie. Questo metodo è però poco usato perché in sostanza si sa che a dimensioni atomiche le corrugazioni sono di altezza atomica, e non danno inconvenienti. Invece su lunga distanza la pendenza media del campione o le sue corrugazioni su grande scala possono creare dislivelli grandi. Perciò un feedback lento dà buoni risultati, risultando però la misura fatta come a quota costante.

3.2.2 Artefatti specifici STM

La tecnica STM, oltre agli artefatti SPM comuni descritti nel paragrafo 3.1.5, si presta a generare nelle immagini altri effetti di disturbo, di seguito analizzati.

3.2.2.1 Contaminanti

Gli ambienti di utilizzo STM più comuni sono aria e vuoto. Quest'ultimo consente di evitare la presenza di contaminanti, e quindi non permette a nessuna molecola di frapporsi tra punta e campione. Al contrario in aria, dove si può incontrare la presenza di un gas o di un vapore nell'ambiente, anche se molto rarefatti, è comune avere particelle di questi contaminanti gassosi che si sono depositate sul campione (adsorbimento) ed hanno pertanto alterato chimicamente la superficie del materiale analizzato, con conseguente effetto sulla misura STM tramite la funzione lavoro f. Una delle sorgenti di contaminazione più comune e deleteria per le immagini STM è l'umidità, ovvero la presenza di semplice vapore acqueo, che forma sulla superficie del campione una pellicola di alcune centinaia di Ångström.
Questo problema affligge, in maniera diversa (più meccanica che chimica) anche le misure AFM; si veda la discussione delle forze in gioco nell'AFM al paragrafo 3.3.2.
Un altro effetto, sempre di natura chimica, provocato dall'umidità, consiste nell'ossidazione precoce delle superfici da analizzare. Anche questo provoca un'alterazione locale del campione "visualizzato" dallo strumento (tramite f), giacché aumenta la difficoltà nel far avvenire il passaggio di corrente tunnel.
Occorre quindi sempre tenere presente che l'informazione STM ottenuta nella modalità d'operazione a corrente costante riproduce la topografia del campione solo nell'ipotesi che il campione stesso sia chimicamente omogeneo, cioè presenti una f costante su tutta la superficie analizzata. Il riconoscimento dei contaminanti delle immagini è comunque lasciato solo all'esperienza dell'operatore in fase di imaging (visualizzazione), essendo impossibile distinguere a priori l'effetto di topografia reale e quello di topografia apparente dovuto a f. In questa sede possiamo solo segnalare come, in ogni caso, una comprensione adeguata del fenomeno consenta talvolta di ricondurre quello che normalmente è un problema anche ad un effetto utile, da sfruttare per l'ottimizzazione delle immagini, come ad esempio per la visualizzazione di campioni non sufficientemente conduttori, resi tali dallo strato di vapore acqueo superficiale.

3.2.2.2 Punte multiple

Un problema che si riscontra sovente nell'utilizzo del microscopio STM è quello delle punte multiple. Infatti quella che noi intendiamo come punta STM dev'essere una sonda sufficientemente "appuntita" su scala atomica o almeno macromolecolare (decine di nm). Il caso ideale è senz'altro quello di punta monoatomica, tuttavia il rendimento della punta nei casi reali dipende evidentemente dalla spazzata delle immagini, ovvero dalla risoluzione che interessa di volta in volta nelle specifiche acquisizioni, la quale va confrontata con la dimensione caratteristica della parte terminale della punta (raggio di curvatura). Per ottenere risoluzione atomica occorre effettivamente che questa grandezza sia delle dimensioni di uno o comunque pochi atomi. Quello che aiuta parecchio per avere risoluzioni elevate nell'STM, rispetto all'AFM, è il fatto che la dipendenza del segnale (corrente) dalla distanza è esponenziale, cioè molto forte, per cui basta che tra gli atomi terminali della punta, anche nel caso che questi siano parecchi, ce ne sia solo che uno appena più prominente, che il suo effetto diventi assolutamente prevalente su quello degli altri adiacenti. Questo accade almeno nell'ipotesi che la punta non sia così poco affilata, rispetto alle asperità tipiche del campione, da interagire con quest'ultime col suo bordo, come capita invece più spesso nel caso dell'AFM (vedere sottoparagrafo 3.3.4.3).



Fig. 3.15: le immagini di un ideale reticolo atomico a cella quadrata visualizzato all'STM con punte di diversa morfologia. In a) la punta è monoatomica, quindi l'immagine ottenuta è quella realistica; in b) la punta è triatomica; in c) è biatomica con l'asse che unisce i centri degli atomi parallelo alla direzione di scansione X; infine in d) si ha una punta biatomica con l'asse perpendicolare alla direzione di scansione.


Si tenga presente anche che per l'STM è consuetudine in genere utilizzare non punte commerciali, benché disponibili (un produttore di punte di elevata qualità è ad esempio Material Analytical Services, Raleigh, North Carolina, USA), ma piuttosto prodotte in proprio. I metodi più comuni a tale scopo sono essenzialmente due: etching elettrolitico di un filo di Tungsteno (W) in soluzione acquosa di KOH o NaOH, o "cutting" tramite forbici di un filo di Platino/Iridio (Pt/Ir). Quest'ultimo metodo, in particolare, per quanto possa sembrare estremamente brutale ed artigianale consente spesso di avere punte che raggiungono risoluzione atomica, in quanto la parte terminale della punta magari su scala intermedia (diciamo dei micron) è scabrosa, ma risulta formata da varie suprapunte, generate dallo strappo della lama, che, prese singolarmente, possono essere affilate fino a livello atomico. D'altro canto, benché presentino raggio di curvatura normalmente assai superiore (dell'ordine del centinaio di nanometri) le punte realizzate elettrochimicamente sono più riproducibili, una volta fissati i parametri relativi (cioè concentrazione dell'elettrolita, intensità della corrente che circola nella cella e durata del processo).
Un esempio dei risultati che si ottengono nel caso sfortunato in cui si voglia realizzare un'immagine a risoluzione atomica mediante una punta multipla con atomi terminali alla stessa quota è mostrato nella figura precedente.

3.3 L'AFM nel dettaglio

Come l'STM anche l'AFM presenta analoghe distinzioni tra le varie modalità di utilizzo, con le debite differenze dovute alla necessità di un ulteriore blocco elementare dello strumento, il modulo di rivelazione del segnale, ed alla diversa natura dell'interazione punta-campione. Prima di descrivere le modalità d'utilizzo occorre quindi approfondire queste due questioni.

3.3.1 Metodi di rivelazione

Come già spiegato nel paragrafo 2.6.2, mentre nell'STM è lo stesso fenomeno di interazione alla base del funzionamento dello strumento che fornisce la grandezza (cioè la corrente di tunnel) da misurare operativamente in maniera diretta (anche se essa va opportunamente amplificata), nell'AFM la deflessione della microleva non corrisponde direttamente ad una grandezza fisica facilmente misurabile, e questo strumento richiede pertanto necessariamente un "modulo" ulteriore di rivelazione del segnale di deflessione. I metodi storicamente utilizzati nel corso del tempo sono stati i seguenti:
  1. effetto tunnel elettronico:
    la microleva e la punta alla sua estremità, normalmente composte di materiale isolante, sono in questo caso conduttrici (o rese tali con qualche ricopertura metallica), e in prossimità del dorso della microleva viene posta una punta STM, che traduce lo spostamento verticale della levetta in una corrente di tunnel. In pratica si ha un STM sovrapposto ad un AFM, dove il "campione" rilevato dall'STM è non la topografia del vero campione finale ma la deflessione della microleva AFM su di esso, la quale fa da intermediaria. Questo metodo è stato usato per lo più nei primi AFM, in cui la leva non era, come quelle usate ormai universalmente oggi, in Nitruro di Silicio (una ceramica isolante), ma consisteva in un filo di Tungsteno con l'estremità ricurva.
  2. interferometria:
    un fascio laser viene focalizzato sul dorso della microleva, e il raggio riflesso interferisce con un altro fascio fisso di riferimento. Su uno schermo opportuno è possibile osservare le frange d'interferenza, dal cui shift (spostamento) si risale alla deflessione della microleva.
  3. leva ottica:
    questa tecnica, ripresa in tempi relativamente recenti dal metodo di Poggendorf ad opera di Meyer ed Amer, è già stata descritta esaurientemente al paragrafo 2.6.2.



a)

b)

c)

Fig. 3.16: i metodi classici di rivelazione della deflessione della levetta in un AFM, riuniti in un'unica immagine complessiva che facilita il confronto: a) effetto tunnel elettronico, b) interferometria, c) leva ottica. Quest'ultima tecnica è già stata descritta in
Fig. 2.18: qui abbiamo in più una fibra ottica per il trasporto del segnale luminoso, ma si tratta di un espediente contingente forzato a volte dalla difficile disposizione geometrica delle varie parti, e tuttavia spesso non necessario o comunque sostituibile con un più semplice specchietto.


Giova a questo punto fare alcune considerazioni circa il rapporto segnale/rumore (S/N) dei metodi sopra elencati, parametro che identifica in genere la validità di una tecnica di prelevamento di un segnale. È stato evidenziato in letteratura che nel primo caso in principio si ha un ottimo valore S/N, ma il sistema non è sufficientemente robusto per l'utilizzo in aria, dove l'effetto dei contaminanti è deleterio. Negli altri due casi il problema non sussiste, mentre l'effetto di disturbo dovuto alla pressione di radiazione del laser sulla microleva è stato calcolato come irrilevante (almeno 100 volte inferiore alle minime forze verticali di Setpoint tipiche). In particolare la leva ottica è preferibile per la semplicità realizzativa e la versatilità nel rilevare altri movimenti della levetta (vedere sottoparagrafo 4.2.1.1), ed è quindi il metodo più redditizio (in considerazione anche delle difficoltà realizzative), non a caso ormai universalmente adottato anche da tutti i maggiori strumenti commerciali (Digital Instruments, Park Scientific Instruments, Topometrix, Omicron, etc., vedere sezione 4.5). Questo metodo è preferito anche ad altri realizzati più di recente, come quelli basati su effetto piezoelettrico (dove la deflessione della leva, accoppiata ad un secondo piezoelettrico, una piastrina ad essa solidale, si traduce in un segnale elettrico) o su sistemi capacitivi (dove la leva è una piastra di un condensatore che ha l'altra piastra fissa, e la deflessione della leva produce una variazione di capacità elettrica del dispositivo).

3.3.2 Forze coinvolte

Oltre alla elevata risoluzione spaziale (al limite atomica, come nell'STM) l'AFM consente di ottenere una sensibilità prima non raggiungibile nel misurare le forze di interazione: sono state osservate forze fino a 10-13 N e gradienti di forza (cioè derivate, ovvero variazioni, nello spazio) fino a 10-6 N/m. Come già evidenziato, tuttavia, nel caso dell'STM la dipendenza esponenziale della corrente di tunneling dalla distanza confina virtualmente l'interazione al solo atomo della punta più vicino alla superficie, mentre per l'AFM la dipendenza dalla distanza è mediamente più debole e l'interazione cambia fortemente a seconda delle forze coinvolte. L'interpretazione fisica dell'interazione AFM risulta pertanto per alcuni aspetti estremamente complessa, vista la gran varietà di forze in gioco.
Premesso che esistono modalità di utilizzo dello strumento (sottoparagrafi 3.3.3.3 e 3.3.3.4) che prevedono anche assenza, temporanea e/o permanente, di contatto punta-campione, in generale nell'AFM ci troviamo in presenza anche di un contatto tra questi due terminali dell'interazione, per cui, volendo considerare tutti i casi di utilizzo dello strumento, occorre comunque tenere presenti anche le forze d'interazione proprie del contatto.
Quella che segue è una veloce rassegna delle principali forze che intervengono tra una generica coppia punta-superficie, che cercheremo d'introdurre tramite la lettura della curva caratteristica AFM forza-distanza, associandole ciascuna rispettivamente al suo range d'azione in base alla distanza punta-campione.
Supponiamo infatti di avvicinare progressivamente la punta della microleva alla superficie del campione, percorrendo la curva nella figura seguente a partire la punto iniziale P. A distanza molto elevata ovviamente l'interazione è nulla. Intorno al centinaio di nanometri cominciano ad agire 3 diversi tipi di forze: magnetiche, di Van der Waals ed elettrostatiche.



Fig. 3.17: curva forza-distanza AFM. s è la separazione tra la superficie del campione e la posizione della punta all'estremità della microleva, con quest'ultima in posizione di riposo (deflessione nulla), ovvero la posizione della base fissa della microleva. Leggendo opportunamente questa curva è possibile comprendere l'azione delle varie forze in corrispondenza dei diversi intervalli di distanze (range d'azione), e misurare grandezze caratteristiche del campione e dell'interfaccia punta-campione.


3.3.2.1 Forze magnetostatiche

Possono essere sfruttate mediante una particolare punta magnetizzata, in modo da utilizzare l'AFM per indagare la distribuzione spaziale delle grandezze magnetiche sulla superficie del campione. Questa applicazione, che per il suo interesse tecnologico ha sviluppato un filone indipendente (sottoparagrafo 4.4.2.1), lavora a tali distanze in modo da essere sensibile ai soli campi (o gradienti) magnetici superficiali, senza risentire della corrugazione del campione. La forza che fa deflettere il cantilever è quella che interviene tra il momento magnetico della punta e quello del dominio magnetico sottostante sulla superficie del campione, sostanzialmente una interazione di tipo dipolo-dipolo.
Il limite di risoluzione ottenibile dipende anch'esso dalla geometria della punta e non è legato in modo ovvio (come nel caso della terminazione della punta AFM o STM) al raggio di curvatura dell'estremità, ma piuttosto dipende criticamente dalla direzione di magnetizzazione della punta. Sia da modelli teorici che da misure risulta comunque raggiungibile una risoluzione di poche decine di nanometri.

3.3.2.2 Forze elettrostatiche

In condizioni particolari, spesso come effetto di disturbo ma a volte anche come fonte di maggiori informazioni, si possono incontrare interazioni punta-campione di natura elettrostatica oltre che magnetostatica, ad esempio forze di double layer nei liquidi (associate alla creazione per induzione di un doppio strato di cariche di segno opposto, affacciate). In effetti la possibilità di lavorare su materiali dielettrici consente di misurare con l'AFM la distribuzione spaziale della carica superficiale e le proprietà dielettriche della superficie. Operando con le modalità di operazione oscillanti (vedere 3.3.3.3, 3.3.3.4 e 4.2.1.2) si può riuscire ad ottenere immagini di distribuzione di capacità elettrica, con sensibilità di ~10-22 F (Farad) e risoluzione spaziale migliore di 100 nm.

3.3.2.3 Forze di Van der Waals (o di dispersione)

Le forze di Van der Waals (VdW) nascono da interazioni di natura dipolare. Visto che questi effetti includono tanto dipoli permanenti (che sono tali anche in assenza di un campo esterno, come, nel caso del campo magnetico, per una calamita) che dipoli indotti (che sono tali solo in presenza di un campo esterno, come un chiodo attaccato in verticale ad una calamita, che diventa anch'esso capace di attrarre) sono comunque presenti nell'interazione tra tutti i tipi di corpi. L'intensità dell'interazione non segue in generale una semplice legge di potenza s-n, con s distanza e n coefficiente di potenza fissato, ma a seconda dei casi può variare da s-7 a s-2. Il range di azione si estende fino ad alcune centinaia di Ångström; questo fa sì che, lavorando alle distanze tipiche delle modalità di operazione dette spettroscopiche o dinamiche (sottoparagrafo 4.2.1.2), con materiali elettricamente neutri e non magnetici, le forze di VdW risultino quelle dominanti.
In ogni caso, nonostante la varia natura, le forze di Van der Waals presentano un effetto complessivo di attrazione, per cui, al decrescere della distanza s, si ha una forza negativa (cioè attrattiva) crescente, finché non subentra l'effetto drammatico e violento delle forze di adesione.

3.3.2.4 Adesione

Avvicinando ulteriormente punta e campione a un certo punto il gradiente delle forze supera la costante elastica del cantilever (che è a sua volta la derivata della forza elastica del cantilever rispetto alla distanza, essendo F=ks, con k costante elastica), e allora la resistenza all'attrazione della microleva viene vinta e si instaura il contatto. L'evento è pressoché istantaneo (avviene in tempi di ~1 ps, picosecondo, pari a 10-12 secondi), e si verifica con un vero e proprio salto della punta verso la superficie, detto Jump to Contact (JC).
Immediatamente prima del contatto e da quel momento in avanti agiscono le forze di adesione. Tali interazioni abbracciano un gran numero di proprietà sia di bulk sia di superficie dei due corpi coinvolti. Una loro esatta comprensione richiede di volta in volta la conoscenza accurata dei parametri locali delle superfici (punta e campione) che vengono in contatto. L'adesione è comunque, nella maggior parte dei casi, dovuta alla presenza di un film sottile di contaminanti adsorbiti sulla superficie del campione durante l'operazione in aria, generalmente semplice vapore acqueo.
Rispetto al caso dell'STM lo strato di vapore influenza l'operatività dello strumento non tanto chimicamente (tramite la funzione lavoro f) quanto fisicamente, proprio in forza del fatto che la visualizzazione AFM standard avviene con sonda e campione in contatto. In queste condizioni la pellicola di vapore esercita una notevole forza di adesione, normalmente superiore di almeno un paio di ordini di grandezza (dell'ordine del micronewton, mN) rispetto alle tipiche forze di Setpoint AFM impostate (~10 nN). L'adesione si esercita attraverso un menisco, ovvero un collo che avvolge l'interfaccia punta-campione al contatto e forma un legame fisico tramite la tensione superficiale del vapore. Lo studio quantitativo delle forze di adesione è reso difficile dalla irregolarità con cui questa pellicola si crea sulla superficie del campione, e dalla dipendenza dalla forma della punta e dalla natura del contaminante.

3.3.2.5 Repulsione

A questo punto punta e campione sono in contatto. In queste condizioni si ha l'equilibrio tra la forza elastica della microleva e le altre forze in gioco, sia in attrazione (tratto A-B) che, proseguendo nel diminuire s, in repulsione (tratto B-C). La forza di repulsione è per l'appunto quella successivamente chiamata in causa per bilanciare la crescente forza elastica. Essa subentra tra due corpi quando la loro distanza è breve al punto da far sovrapporre parzialmente le nubi elettroniche degli atomi esterni.
La natura è duplice: da un lato si ha l'effetto elettrostatico tra i nuclei degli atomi dei suddetti corpi, dall'altro l'effetto dovuto al principio di esclusione di Pauli, di natura quantistica, che prevede che due elettroni con lo stesso non possano occupare il medesimo orbitale. L'interazione ha comunque una forte dipendenza dalla distanza e il suo range di azione è limitato a pochi Ångström.

3.3.2.6 Attrito

Sempre durante il contatto, il meccanismo di movimentazione del punto di contatto punta-campione genera delle forze di attrito. Esse sono fortemente correlate alla chimica e alla natura atomica della superficie, ma possono dipendere anche da una piccola frazione di monostrato di atomi o molecole adsorbiti. L'informazione che si ricava indagando il fenomeno dell'attrito su scala atomica mediante l'AFM presenta quindi un forte connotato spettroscopico, ovvero di distinzione tra diversi materiali e o fasi chimiche dello stesso materiale sulla superficie del campione. La forza di attrito (forza laterale) dipende, secondo le note leggi di Amontons, dalla forza verticale (detta di carico) imposta dalla microleva alla superficie del campione nel punto di contatto tramite la deflessione della microleva (il Setpoint o Reference AFM) attraverso un coefficiente di proporzionalità definito conseguentemente come coefficiente di attrito (nella fattispecie dinamico, durante la scansione). Nell'AFM è tuttavia difficile distinguere la forza di carico imposta tramite la deflessione di Setpoint della microleva e la forza verticale ad essa sommata derivante dai fenomeni d'adesione, e quindi la misura e la definizione stessa del coefficiente d'attrito è quantomeno critica. L'attrito pertanto, più che poter essere misurato quantitativamente a livello atomico con l'AFM, risulta utile solo in quanto è in grado di fornire un ulteriore meccanismo di contrasto in aggiunta alla differenza di quota topografica, (per dettagli si veda il sottoparagrafo
4.2.1.1).

3.3.2.7 Deformazione elasto-plastica del campione

Lungo la retta di contatto, nel tratto B-C si ha una reazione del campione tale che la pendenza della retta dipende non solo dalla costante elastica della microleva, kl, ma anche da quella della superficie del campione, kc. Oltre un certo limite, in presenza di un campione molle (kc<kl) la deformazione della superficie dello stesso diventa plastica, ovvero irreversibile, e la retta diventa curva (dopo il punto C): si parla di penetrazione del campione da parte della punta. Due grandezze interessanti che si possono ricavare dalla curva forza-distanza in questo tratto sono pertanto H' e H (vedere figura precedente), separate dall'intersezione tra la tangente alla curva di downloading (il tratto percorso a carico decrescente dopo aver raggiunto il massimo valore) nell'estremità (punto di carico massimo D) e l'asse F=0. H', che è la porzione di penetrazione recuperata, viene definita come la deformazione elastica a carico zero, e H, la porzione di penetrazione non recuperata, come la indentazione plastica a carico zero. Un'altra grandezza ricavabile dalla curva è inoltre il modulo di Young E del campione.

Proseguendo nell'unloading, cioè allontanando ulteriormente la base della microleva dal campione, si incontra la seconda discontinuità della curva F(s): il cosiddetto Jump Off contact (JO). Il salto stavolta si verifica quando la costante elastica della microleva supera il gradiente della forza di adesione, che è quella che, evidentemente, impedisce a punta e campione di staccarsi alla stessa distanza di quando il contatto è stato instaurato. L'area racchiusa dalla curva tra il JC e il punto JO rappresenta quindi il lavoro della forza di adesione.

3.3.2.8 Altre forze

Talvolta operando in un mezzo liquido invece di un netto Jump Off contact si verifica nella corrispondente zona della curva F(s) un andamento del distacco progressivo, a scalini: si parla di Slide Off contact (SO). Questo "scivolamento" nel distacco ha a che vedere con la presenza di forze idrofobiche. Le forze idrofiliche-idrofobiche s'instaurano tra acqua e molecole polari o non polari rispettivamente, e sono dovute alla realizzazione o meno di legami idrogeno.
In liquido si possono avere anche forze di solvatazione (idratazione se il liquido è acqua), dovute a variazioni della pressione molecolare nella regione tra punta e campione, per distanze pari a poche unità molecolari del liquido, e forze steriche, legate a fluttuazioni di natura termica, associate a una specie di diffusione delle estremità libere di molecole a catena lunga (ad esempio polimeri) nel liquido, fenomeno detto di "protrusione entropica", che genera piccole forze repulsive.

3.3.3 Modalità operative AFM

Anche per l'AFM, come già per l'STM, analizzeremo in questo capitolo le modalità d'operazione dello strumento dette standard, cioè non di natura spettroscopica (affrontate per contro nel capitolo 4).
In modalità standard l'utilizzo dell'AFM prevede però ulteriori distinzioni rispetto all'STM, in quanto esso può operare sia in contatto (che è in realtà il modo più comune e quindi quello "standard" per eccellenza) che in non contatto, o ancora in regime intermedio (contatto intermittente).
Nella modalità di contatto la punta trasversale all'estremità della levetta elastica viene posta e mantenuta in contatto costante e stabile con la superficie del campione da analizzare. Le forze prevalenti in gioco, il cui effetto è alla base del funzionamento dello strumento, sono, tra tutte quelle analizzate in precedenza, la forza repulsiva di core ("nocciolo duro") tra i nuclei degli atomi più prossimi del sistema eterogeneo punta-campione, e la forza repulsiva di origine quantistica dovuta al principio di esclusione di Pauli. In pratica è la forza repulsione complessiva che agisce poi sulla levetta flettendola, e la deflessione di questa fornisce una misura dell'andamento dei rilievi topografici del campione.
È solo in questa modalità di contatto che si può fare la distinzione, parallela a quella corrispondente per l'STM, tra (sotto-) modalità a "grandezza misurata" costante e a quota costante. Cominciamo quindi con l'analisi di questi due casi.

3.3.3.1 AFM a "grandezza misurata" costante

Stavolta la grandezza di riferimento da mantenere costante al Setpoint è la deflessione, ovvero la forza verticale di contatto, repulsiva, pari alla deflessione moltiplicata per la costante elastica della microleva utilizzata.
Il fatto di lavorare a deflessione costante ci dice che la compressione a cui è sottoposta la superficie del campione durante il contatto è uniforme, per cui, se anche fosse, nel caso peggiore, troppo elevata, in modo da deformare (purché non plasticamente) la morfologia del campione che viene percorso dalla punta, almeno siamo sicuri che l'effetto di questa deformazione (che comunque si vuole minima!) è uguale in tutti i punti. Inoltre applicando una forza verticale costante possiamo anche trarre ulteriori informazioni derivate, come la forza d'attrito (sottoparagrafo 4.2.1.1). D'altra parte sappiamo già dall'STM quali limitazioni di velocità imponga l'utilizzo del sistema di feedback che garantisce la costanza della "grandezza misurata".
Solo un'osservazione: il fatto che noi deduciamo l'essere la forza verticale di contatto sul campione costante, come conseguenza della costanza della deflessione della levetta, deriva in realtà da un'ulteriore assunzione: che durante il moto in ogni istante la punta sia in condizioni di equilibrio con il campione, almeno per quanto riguarda la direzione ortogonale al piano di scansione. Questa ipotesi in realtà non è così scontata, visto che sul piano (X,Y) in generale si possono avere complicazioni dovute al moto composito raster dell'interfaccia, congiunte ai limiti di efficacia del traslatore piezoelettrico e a fenomeni non lineari legati ai gradi di libertà laterali della levetta, (stick-slip della forza di attrito, vedi 4.2.1.1). Inoltre lo stesso cedimento elastico del campione comporterebbe una diminuzione istantanea della forza di contatto, ed è da evitare il più possibile anche per questo.



Fig. 3.18: AFM in modo di contatto e a deflessione (forza verticale) costante. Per passare alla modalità a quota costante è sufficiente bypassare il modulo di controllo su Z. Come si può osservare, lo schema nel complesso, a parte la diversa disposizione geometrica dei vari "blocchi", non differisce da quello dell'STM riportato in Fig. 3.14: lo si è qui voluto riproporre per mostrare dove s'inserisce il blocco di rivelazione del segnale (in più rispetto all'STM), evidenziato all'interno della linea punteggiata. Qui il "sensore" dell'AFM è quello a effetto tunnel elettronico, ma potrebbe essere uno qualsiasi dei 3 mostrati in Fig. 3.16.


3.3.3.2 AFM a quota costante

Allo stesso modo sono uguali all'STM i vantaggi e le caratteristiche di applicabilità dell'altra modalità alternativa, cioè quella a quota costante: maggiori velocità di scansione (e quindi di realizzazione complessiva delle immagini) e validità solo per piccole spazzate (poche decine di nm), rispettivamente.
Nessuna novità particolare si riscontra quindi rispetto al caso STM, solo vale la pena di fare una doverosa precisazione: in realtà per il caso AFM nel modo a quota costante la forza repulsiva, essendo variabile sul campione da punto a punto (con la deflessione della levetta), fa sì che la parte della sonda a quota costante sia la base della levetta, mentre la "sonda" vera e propria (la parte terminale del sistema sonda, cioè quella direttamente interessata dall'interazione col campione, ovvero la punta) cambia quota. È, evidentemente, solo una questione di linguaggio, essendo la quota della punta legata alla "grandezza misurata" (la deflessione dell'estremità della leva), e distinta dalla "quota" nel significato SPM, che è la quota della piastrina cui è fissata la base della levetta.

3.3.3.3 AFM in non contatto

Una terza modalità di utilizzo dell'AFM, che costituisce un caso a parte, è quella detta "di non contatto". In questa tecnica la punta della microleva è posta e mantenuta a distanze dal campione dell'ordine di 10 nm o più. In tali condizioni le forze prevalenti su di essa dovute al campione sono quelle di Van der Waals (sottoparagrafo 3.3.2.3). Il fatto che le forze nel modo di non contatto siano molto più piccole che nell'altro modo (vedere Fig. 3.19, o Fig. 3.17 nel tratto della curva da P a J.C.) ha fatto sì che fino ad oggi questa tecnica sia stata utilizzata molto meno delle due varianti della modalità di contatto, per ragioni sia di difficoltà realizzativa di un efficace sistema di rivelazione del segnale, sia di scarsa stabilità del sistema nella zona di operazione (si ricordi il meccanismo del Jump to Contact). La procedura consueta della modalità di non contatto consiste pertanto non nel mantenere la punta a distanza fissata dal campione, cioè in "condizioni statiche" su Z (modalità detto anche "in continua"), ma nel modulare l'estremità della levetta di un moto periodico lungo Z ("condizioni dinamiche" o "oscillanti" o "risonanti"). In questo modo si è in grado da un lato di sottoporre a misura non il valore assoluto della forza in sé ma quello del suo gradiente (o derivata), cioè la variazione nello spazio lungo Z (più facilmente rivelabile), dall'altro di fornire un meccanismo che consenta all'estremità libera della levetta di vincere l'attrazione che potrebbe, se indisturbata, portare al Jump to Contac.
La modulazione Z della punta della microleva è realizzabile direttamente o tramite un secondo traslatore piezoelettrico pilotato con una tensione alternata (ricordiamo che il "primo" è quello applicato al campione) o eccitando la levetta termicamente, per mezzo di un fascio laser che riscaldandola la faccia oscillare. Le oscillazioni imposte presentano ampiezze che variano, di caso in caso, dai nm alle decine di nm, e frequenze vicine a quella propria di risonanza della microleva (in genere tra i 100 e i 400 kHz), anche in considerazione del fatto che le microleve utilizzate in questa tecnica sono normalmente più rigide di quelle usate in contatto, proprio per evitare facili J.C..
In pratica ciò che viene mantenuto costante dal circuito di feedback, nella modalità AFM di non contatto dinamica, è non la forza d'interazione ma il gradiente di tale forza.



Fig. 3.19: è qui raffigurata la curva ideale forza-distanza di una coppia punta-campione AFM; si tratta in pratica della versione "teorica" della curva reale, "pratica", riportata in
Fig. 3.17. A parte la generale corrispondenza della forma, in questa curva teorica non si nota isteresi, ovvero differenza tra loading e unloading (cioè tra i 2 versi di percorrenza della curva, avvicinamento ed allontanamento), essendo il contatto idealmente puntiforme e l'adesione tra le superfici estese di contatto non considerata in casi ideali. Per gli studiosi di chimica facciamo osservare come questa curva teorica, di fatto, riproduca un tipico potenziale d'interazione fisico-chimica alla Lennard-Jones. Nella nostra rappresentazione sono evidenziate le regioni associate ai regimi di interazione AFM di contatto e non contatto.


L'andamento con la distanza delle forze di VdW, alcuni ordini di grandezza meno ripido di quello delle forze repulsive utilizzate nel modo di contatto, limita in genere la risoluzione alla decina di nm, ma per lo studio di molti processi biologici questo valore è più che sufficiente, mentre si ha il notevole vantaggio di interagire col preparato senza danneggiarlo, dato che si utilizzano forze dell'ordine di 10-11 N, un fattore 100 circa più piccole di quelle tipiche dell'AFM in contatto.
Ultimamente sono state effettuate alcune misure in modo AFM attrattivo di non contatto anche "in continua", cioè senza l'imposizione del moto oscillatorio di base alla cantilever, grazie all'immersione dell'interfaccia in ambiente liquido, che sfavorisce il J.C., e sembra che anche in queste condizioni si possa ottenere una risoluzione "atomica" (o pseudoatomica). Si tratta però, nel caso statico, di una tecnica che deve ancora dimostrare definitivamente la sua validità e praticità di utilizzo, mentre per la variante "dinamica" c'è da dire che allora, dovendo mobilitare l'attrezzatura richiesta (almeno un amplificatore a lock-in per la rivelazione delle variazioni di ampiezza e/o fase dell'oscillazione imposta alla leva, vedere 4.2.1.2) conviene a quel punto affidarsi a tecniche che consentano un'ulteriore approfondimento delle proprietà del campione che non la semplice visualizzazione della topografia, compito svolto già egregiamente dalle più semplici e comuni modalità di contatto. Per queste altre analoghe tecniche "dinamiche" (che prevedono cioè oscillazioni della Z della microleva) si veda il sottoparagrafo 4.2.1.2 del capitolo successivo.

3.3.3.4 AFM a contatto intermittente

Questa modalità è in pratica una combinazione dei modi di contatto e non contatto introdotta per la prima volta col nome di Tapping mode. In pratica si tratta di una situazione in cui il contatto è intermittente, essendo l'estremità della microleva posta in oscillazione come nel modo di non contatto dinamico, ma con ampiezza tale da toccare il campione nel punto più basso dell'oscillazione. La misura è poi fatta sulla variazione della riduzione dell'ampiezza dell'oscillazione imposta dal contatto, riduzione che è una misura della topografia del campione. In pratica come concetto si basa sul contatto in quanto a grandezza da misurare, e sul non contatto in quanto a metodo per misurarla. Il vantaggio rispetto al contatto costante sta nel fatto che per la maggior parte del tempo il contatto è assente e questo evita fenomeni di disturbo associati al contatto come l'attrito (che non si verifica perché la punta, durante la maggior parte dello spostamento raster, è sollevata e non "struscia") e la deformazione in verticale del campione, per compressione: essendo la frequenza di oscillazione molto elevata, in pratica anche nel contatto la punta non ha tempo di "schiacciare" il campione, e rimbalza rapidamente verso l'alto come se questo fosse di fatto assai più duro di quanto non sia realmente. Tale tecnica si presta quindi all'impiego su campioni molli di per sé o comunque poco fissati al substrato (il vetrino sul quale sono posizionati).

3.3.4 Artefatti specifici AFM

Cosè come per l'STM anche l'AFM presenta problemi suoi specifici, o comunque più comunemente riscontrati con questa tecnica di microscopia rispetto a quella STM, in aggiunta a quelli comuni a tutti gli strumenti SPM; di conseguenza questo vale anche per gli artefatti, ovvero le alterazioni ingannevoli indotte sulle immagini prodotte.

3.3.4.1 Interferenza ottica

Questo artefatto riguarda le immagini realizzate in contatto con AFM che utilizzano il sistema di rivelazione a leva ottica, peraltro il più comune, come già sottolineato (paragrafo 3.3.1). Il fenomeno si manifesta con l'apparizione, sull'immagine in questione, di fasce chiaro-scure parallele equidistanti, pressapoco orizzontali, e può essere correttamente interpretato nel seguente modo. Parte della luce laser che incide sul dorso della microleva arriva in realtà anche sul campione sottostante, sia perché, se si usano levette di Nitruro di Silicio (Si3N4) non dorate esse sono parzialmente trasparenti, sia perché, e questo vale sempre, lo spot laser ha dimensioni superiori a quelle della parte terminale della leva che viene illuminata. Ora è vero che la luce riflessa dal campione va a finire fuori dalla fotocella, in conseguenza del fatto che il chip contenente la microleva viene montato con una inclinazione j (pari di norma a circa 15°) col piano del campione, (accorgimento adottato principalmente per garantirsi sempre che la leva tocchi con l'estremità libera, e non rischi di urtare e "arare" il campione con la base ed il relativo supporto rigido). Tuttavia il fascio riflesso dal campione anche se non incide direttamente sulle fotocelle interferisce con il fascio riflesso dalla microleva, e provoca quindi l'occorrenza di massimi e minimi di interferenza sulla fotocella. La loro spaziatura dipende dalla differenza di cammino ottico tra i due fasci riflessi dalla levetta e dal campione. Il passo della figura di interferenza può quindi essere ricavato eguagliando tale differenza di cammino ottico alla lunghezza d'onda della luce laser. Si può dimostrare che se ne ricava per il passo d la seguente relazione:

d = l / (2 cosq senj)


dove q e j sono rispettivamente l'angolo di incidenza del laser sulla cantilever e l'inclinazione della cantilever rispetto al campione. Pertanto risulta d  l/2, e se come di consueto il laser utilizzato è rosso (cioè l ~ 600 nm) d è quindi ~ 400 nm. Questo artefatto è perciò presente soltanto nelle immagini di dimensioni superiori al micron.
L'effetto è particolarmente realistico in quanto, quando si manifesta, anche ruotando la scansione o variando le dimensioni della spazzata le strisce ruotano o cambiano dimensioni apparenti all'interno delle immagini, come se si trattasse di veri rilievi del campione, diversamente da quanto accade per altri artefatti che sono quindi più facilmente riconoscibili (come le fasce verticali di noise elettronico o meccanico).
L'uso di levette rettangolari, invece che triangolari, sembra inoltre incrementare l'effetto, probabilmente perché minore è l'area utile come schermo per lo spot laser in corrispondenza dell'estremità libera della microleva, e quindi maggiore la porzione di luce che non incide sul dorso della microleva che la riflette ma finisce sul campione sottostante nelle immediate vicinanze.

3.3.4.2 Mescolamento topografia-torsione

Nello spostamento punta-campione sul piano (X,Y), condotto con moto raster al fine di ricostruire l'immagine, in modalità di contatto l'AFM esercita, come conseguenza della forza verticale di contatto, anche una forza laterale di attrito, che provoca una torsione della microleva. Questa deformazione della levetta si aggiunge alla deflessione associata alla forza verticale, complicando la situazione di equilibrio dinamico della microleva.



Fig. 3.20: a) utilizzando il metodo di rivelazione degli spostamenti della microleva detto a leva ottica estesa con un sistema di fotocelle a quattro quadranti, e combinando opportunamente i 4 segnali come nelle formule in figura in alto a destra, è possibile misurare simultaneamente deflessione D e torsione T della microleva, (a è un coefficiente di normalizzazione che divide per la tensione, cioè il segnale, totale). Si veda anche
Fig. 4.6). b) Occorre tuttavia fare attenzione al corretto allineamento delle fotocelle, in quanto altrimenti, in caso di una discrepanza di direzione descritta da un angolo d, parte del segnale di torsione si può sommare a quello di deflessione, e viceversa, alterando le immagini.


Tuttavia, essendo i due moti (deflessione lungo Z e torsione, ovvero rotazione della levetta intorno al suo asse longitudinale) virtualmente indipendenti per ragioni geometriche (si parla di "gradi di libertà" della microleva, ovvero possibilità di movimento, indipendenti), è possibile porsi in condizioni tali da poter misurare indipendentemente entrambi questi spostamenti della microleva. A tale scopo si usa, invece che una singola coppia di fotocellule, accoppiate in maniera differenziale ed allineate con la loro congiungente lungo la direzione di spostamento del fascio laser riflesso dalla leva, una doppia coppia di tali fotocellule, in cui le due coppie sono ortogonali tra loro come gli spostamenti (indipendenti) dello spot laser dovuti ai due movimenti di deflessione e torsione. Tale sistema di elementi fotosensibili nel complesso viene detto talvolta brevemente "fotocella a 4 quadranti", (vedi figura precedente; nel sottoparagrafo 4.2.1.1 si vedrà come questa disposizione consenta di fornire immagini di attrito del campione).
In pratica giocando sugli accoppiamenti a 2 a 2 dei 4 elementi fotosensibili è possibile isolare i segnali elettrici (tensioni provenienti dalla conversione delle fotocorrenti in uscita dai fotodiodi) che misurano i due movimenti, come mostrato in figura. Fin qui niente di problematico. Il punto critico sta nel fatto che perché il tutto funzioni egregiamente è necessario un corretto allineamento dei quadranti; altrimenti le fotocelle "misurano" dei segnali Tcells e Dcells diversi dai segnali reali T e D, in quanto derivanti in realtà da una loro combinazione ingannevole, fenomeno detto di "mescolamento" dei segnali.

3.3.4.3 Convoluzione punta-campione

La convoluzione punta-campione è in realtà un artefatto generale dei microscopi a scansione a sonda. Tutte le volte che, come è nella pratica, l'estremità della sonda ha una dimensione finita e una aspect-ratio (cioè un'affilatezza) poco elevata, di fatto è possibile che la sonda interagisca col campione non solo con l'estrema sua propaggine, ma con altre zone (atomi o cluster o protuberanze) delocalizzate, sul piano (X,Y), rispetto al punto teorico di campionamento del segnale d'interazione poi utilizzato per la ricostruzione dell'immagine. Abbiamo già accennato a questo aspetto nell'STM, dove si manifesta essenzialmente come punte multiple: essendo nell'STM normalmente effettuate misure a risoluzione in media più elevata che rispetto all'AFM, è però in quel caso più importante la sola parte terminale della punta, che nella realtà non è monoatomica come nel caso ideale, ma sarà sempre in effetti, almeno a livello atomico, appunto, molteplice.



Fig. 3.21: convoluzione di una punta su un profilo di un campione e relativo andamento grafico. È facile immaginare che cosa succede nel caso in cui si percorrano delle buche o delle asperità più strette della larghezza della punta: viene in pratica riprodotta la forma stessa della punta AFM (nel primo caso cambiata di segno), e quindi le buche vengono "riempite" (quasi non si rilevano o comunque si "vedono" come molto poco profonde), mentre le "punte" vengono estremamente "allargate".


Nell'AFM il discorso è un po' diverso: poiché più spesso si fanno immagini di campioni "grandi", su scale dai micron alle decine di micron, e spesso di corrugazione elevata su scale dalle centinaia di nanometri al micron, l'effetto di convoluzione punta-campione più comune è dovuto non tanto alla punta multipla terminale ma alla contattazione del bordo della punta. Questo anche perché la punta, essendo prodotta con procedimenti industriali di microfabbricazione integrata su chip di, normalmente, Nitruro di Silicio, è, almeno in linea di principio, maggiormente riproducibile ed affidabile in quanto a forma di quanto non siano le punte STM, generate, sia nel caso elettrochimico che, ancora di più, nel caso del cutting, in maniera artigianale. Inoltre su grandi scale (dell'ordine del micron, appunto) l'aspect-ratio (rapporto larghezza-altezza) delle punte AFM è in genere assai più basso, variando da circa 1/3 per le cosiddette "superpunte" a circa 2/1 per le punte standard più economiche e comuni. In queste condizioni è facile capire come, dovendo percorrere protuberanze elevate e ripide, ci si possa trovare facilmente a toccare il campione col bordo della punta piuttosto che con la sua estremità. In tal caso si dice che l'immagine del campione ottenuta risulta una convoluzione dei due profili in gioco, quello della sonda e quello del campione, come mostrato nella figura precedente.
Esistono scaricabili come freeware o shareware da Internet diversi software di correzione che consentono di deconvolvere la forma della punta dall'immagine SPM ottenuta, risalendo così all'immagine reale del campione puro, sia per STM (effetti di punte multiple) che soprattutto per AFM (effetti di bordo), dove sono più utilizzati nella pratica, fino a costituire per contro, più che un metodo di "ripulitura" dell'immagine, delle procedure ormai standard per la caratterizzazione della punta impiegata. Infatti, mentre nel caso dell'STM il controllo a priori della punta può essere affidato solo a immagini ottenibili da misure SEM, per l'AFM è possibile invece comprendere la forma della punta proprio da immagini AFM di campioni con protuberanze molto sottili e lunghe, (dette talvolta "whiskers", baffi) disponibile in commercio come campioni standard di taratura.

3.4 Analisi dei parametri di una misura SPM

Un'operazione senz'altro utile ai fini del raggiungimento di una maggiore comprensione delle tecniche SPM è l'analisi dell'insieme di informazioni coinvolte nella realizzazione di un tipico esperimento di scansione-acquisizione di dati, e l'evidenziazione di quelle più importanti tra le varie considerate. In questa analisi, di seguito affrontata, abbiamo ritenuto opportuno di limitarci alle sole tecniche SPM principali, quelle, per così dire, genitrici di tutte le altre, e cioè l'STM e l'AFM entrambi "a grandezza costante" (più avanti brevemente indicate solo col termine generico SPM). Inoltre, essendo molte le variabili da considerare procederemo su diversi livelli di approfondimento successivo.

3.4.1 Considerazioni preliminari

Il punto di partenza per l'analisi delle grandezze in gioco è l'insieme delle grandezze effettivamente impostabili tramite software ed hardware su un tipico strumento SPM.
I parametri si possono distinguere in due categorie, in base alla frequenza con cui comunemente ne vengono modificati i valori. Esistono parametri che normalmente vengono impostati ad un valore una sola volta all'inizio di una serie di misurazioni; ad essi ci riferiremo in seguito con la dicitura "parametri di sessione".
Occorre osservare che, con sessione, s'intende una serie coerente di acquisizioni consecutive, realizzate al fine di analizzare diverse zone di uno stesso campione o di perfezionare la visualizzazione di una stessa zona del campione. Al termine "sessione" corrisponderà quindi in maniera biunivoca anche il termine "esperimento"; ovvero, per esperimento SPM s'intenderà una sessione completa di acquisizioni SPM, e non una singola acquisizione; la sessione è infatti il minimo corpo di misure significative nel suo complesso.
Esistono poi parametri che vengono comunemente modificati di acquisizione in acquisizione, o comunque con frequenza assai maggiore dei precedenti. Solitamente questi parametri sono impostabili via software o attraverso comodi comandi "fisici" (manopole o cursori sui moduli dell'elettronica di controllo), allo scopo di consentirne una rapida variazione all'utente. Ad essi ci riferiremo in seguito con la dicitura "parametri di singola acquisizione".

3.4.2 Selezione dei parametri fondamentali

Nell'analisi dettagliata di seguito presentata, per ciascun parametro viene riportato, subito dopo il nome, il carattere dello stesso, per quanto riguarda le sue modalità di variazione implementate nel generico strumento tipo considerato, descritte come "grandezza hardware" o "grandezza software". "Hardware", in senso lato, si riferisce non solo a controlli manuali sull'elettronica dello strumento ma anche a impostazioni meccaniche effettuate comunque manualmente sullo strumento AFM (inteso come testa e controller nel loro complesso). È riportata anche una descrizione del parametro e la conclusione se si tratti di un parametro in generale importante. Ad ogni parametro è stato assegnato un codice identificativo.

3.4.2.1 Parametri "di sessione"

3.4.2.2 Parametri "di singola acquisizione"


Il risultato della rassegna sopra effettuata è riassunto nella seguente tabella.



Fig. 3.22: il quadro generale derivante da una prima discussione dei parametri coinvolti in una generica operazione di misura SPM.


3.4.3 L'impostazione ottimale dei parametri

Relativamente ai parametri selezionati nel precedente paragrafo come fondamentali, effettuiamo uno studio più approfondito del loro significato, interpretandoli ed elaborandoli ai fini del loro utilizzo. Cioè vogliamo vedere quali di questi parametri sia utile variare in una tipica operazione di "tuning" SPM, dove s'intenda con questo termine l'ottimizzazione delle immagini ottenute del dato campione in esame, effettuata variando i valori dei vari parametri di scansione-acquisizione dello strumento SPM.
Intanto occorre osservare che oltre ai parametri che determinano, per un dato esperimento, il conseguimento di immagini ottimali, risulta estremamente importante definire in maniera corretta anche i parametri che devono identificare in maniera univoca un dato esperimento "acquisizione SPM", consentendo di distinguerlo da tutti gli altri esperimenti, che avranno, in genere, valori ottimali dei parametri di scansione-acquisizione che dipendono da questi. Cioè il sistema SPM è una "scatola nera" che, in presenza di un determinato campione (o più in generale "esperimento", intendendo con esso il campione più le condizioni al contorno, ambientali, di misura) e di un determinato insieme di valori dei parametri di scansione-acquisizione impostati dall'operatore, variabili tutte considerabili come facenti parte di un Input, fornisce in Output una data immagine, che si vuole di qualità ottimale. Per migliorare questa immagine è possibile, fissato il campione (l'esperimento) far variare i parametri di scansione-acquisizione.
Quindi il problema, da parte dell'operatore, è risolvere un altro sistema, uno strumento "ideale", che potremmo chiamare "ottimizzatore SPM", che questa volta abbia in Input i parametri che descrivono il campione (o esperimento), e in Output i valori ottimali dei parametri SPM di scansione-acquisizione. È chiaro che questo "ottimizzatore" è costituito dall'operatore stesso, che in base alla sua esperienza (operatore esperto) decide di provare ad impostare, in corrispondenza di un campione con determinate caratteristiche, determinati valori dei parametri operativi SPM di scansione-acquisizione. Comunque si tratta di un'operazione sempre non immediata ma che procede per tentativi, cioè secondo un metodo cosiddetto "trial and error" (prova ed errore, e successiva nuova prova fino a "vedere" un'immagine migliore, cioè un errore "minore"). Vogliamo porci il problema di identificare e segnalare quali parametri, secondo questo secondo problema di ottimizzazione (tuning) delle immagini, siano quelli di Input e quali quelli di Output.
L'insieme di parametri componenti che costituisce un vettore di Input della rete sarà chiamato di seguito brevemente "campione", mentre l'insieme di parametri componenti che costituisce un vettore di Output sarà chiamato "impostazione ottimale". In pratica si osservi che rispetto alla classificazione che distingue tra i parametri SPM di sessione e di singola acquisizione ne abbiamo effettuata in questo modo un secondo tipo, più focalizzata sulla funzione dei parametri (che cosa descrivono e perché cambiano o si cambiano) che non sulla loro operatività (frequenza con la quale vengono cambiati), anche se ovviamente esiste una relazione abbastanza stretta tra i due aspetti, che vede una certa corrispondenza tra parametri di sessione e parametri campione (vettore di Input) da un lato, e parametri di singola acquisizione e parametri impostazione ottimale (vettore di Output) dall'altro. Si è solo spostato l'accento sull'operazione di miglioramento del risultato SPM (l'immagine), con la conseguenza che sarà necessario, nel paragrafo successivo, un qualche riordinamento delle idee ed una ridefinizione dei parametri stessi.

3.4.3.1 Parametri assegnabili in maniera deterministica

Partendo dai parametri SPM fondamentali preselezionati, possiamo escluderne tre tra quelli da utilizzare nella procedura di ottimizzazione trial and error (cioè per tentativi). Benché essi siano infatti parametri molto importanti, non risulta necessario il loro inserimento in una simile procedura di tuning variazionale perché i loro valori possono essere assegnati nella maniera ottimale in modo deterministico, senza ricorrere a procedure di variazione.


Fig. 3.23: una serie di immagini di un campione di film sottile di un polimero conduttore, a scansioni di spazzata ~1,4 mm. A Integrale fissato, pari a un valore tipicamente ottimale per molte immagini, si è ridotta progressivamente la fLP: a) 1000 Hz, b) 300 Hz, c) 100 Hz. Già nella c) sono scomparse tutte le oscillazioni presenti nelle immagini precedenti, mentre successive acquisizioni a 30, 10, 3 e 1 Hz hanno fornito immagini praticamente uguali, non mostrando quindi, in realtà, il blurring che ci si sarebbe atteso. Questo è dovuto al fatto che il valore d'Integrale impostato corrisponde ad una f0~111 Hz, per cui comunque non vengono tagliate le frequenze inferiori a quel valore, per quanto riguarda il ramo Integrale del feedback. In e) è infine rappresentato il risultato di un'elaborazione di post-processing dell'immagine a) di tipo passa basso 5x5, il minimo necessario per rimuovere le oscillazioni: si può osservare che in questo caso è inevitabile l'insorgere di un notevole blurring; è quindi confermata l'importanza di un passa-basso "fisico" on-line sulle acquisizioni (e del relativo parametro fLP), da preferire in ogni caso a qualsiasi operazione, anche analoga, di post-processing.


Quindi due sono le "frequenze di taglio" da tenere presenti: la fLP e la f0=1/2pti dell'Integrale (con ti=RC costante tempo). Pertanto, in condizioni in cui non è necessario un elevato Proporzionale perché di fatto le altezze delle strutture topografiche sul campione sono piuttosto ridotte, anche annichilendo il contributo del Proporzionale con una fLP assai bassa, rimane la porzione di feedback Integrale, e quindi può capitare di non osservare il blurring sopra descritto.
Per quanto riguarda il valore da assegnare a questo parametro fLP, almeno per il limite superiore, questo potrebbe essere determinato automaticamente in maniera esatta, senza necessità di procedimenti iterativi, conoscendo le caratteristiche nominali (periodicità) del campione. Se, ad esempio, si acquisiscono 128 punti su una riga che rappresenta una dimensione lineare del campione pari a 1 micron, poiché come dimensioni minime delle strutture riconoscibili si può ragionevolmente pensare di avere due pixel per un cluster (uno può essere dovuto, spesso, a rumore), e altri due, a fianco, per distinguere un altro livello (che può essere il piano di substrato, per la singola struttura topografica, o il semiperiodo di valore basso, per una struttura periodica), si può concludere che il "periodo" minimo interessante è pari a 4 pixel, quindi 4/128 del periodo di riga, ovvero, la frequenza massima interessante è 128/4=32 volte la frequenza di scansione di riga; tutte le frequenze superiori possono essere tagliate dall'immagine (ad esempio, a 4 Hz di scansione si può impostare tranquillamente la frequenza di taglio a 4x32=128 Hz senza timore di perdere alcuna informazione, che non sarebbe in ogni caso riconoscibile sull'immagine, e genererebbe soltanto rumore). Ma un'altra osservazione consente di determinare una regola pratica di validità generale per l'assegnazione del valore a questo parametro, senza fare ricorso ad una sua considerazione di "variabile" nell'ambito delle procedure di "tuning" delle acquisizioni. Questa è fornita dal richiamo al fatto che, come già osservato sopra, lo stesso Integrale è un passa basso con una sua frequenza di taglio, per cui, una volta impostato il contributo dell'Integrale, la frequenza di taglio sul proporzionale dovrà essere ragionevolmente impostata al valore più prossimo a quella (1/2pti) dell'Integrale: non ha molto senso, infatti, ricomporre un segnale precedentemente sdoppiato in due rami distinti sui quali da uno è stato tagliato un certo insieme di frequenze e dall'altro no. Nella figura seguente si vede come modificando con fLP anche l'Integrale, in modo da procedere di pari passo con fLP e f0, si osserva in effetti il blurring di cui si era discusso in precedenza.



Fig. 3.24: effetto della diminuzione parallela di fLP e f0: a) fLP=f0=100 Hz, b) fLP=f0=30 Hz, c) fLP=f0=10 Hz, d) fLP=f0=3 Hz. La variazione di ciascuno dei due parametri evidenzia l'effetto di quella dell'altro e non lo maschera; il risultato è un notevole blurring, oltre all'evidente curvatura della superficie dovuta all'isteresi del piezoelettrico lungo Z (evidenziata quando lo stesso "è in difficoltà" nel seguire il profilo del campione, come in questo caso, in cui praticamente sia la componente Proporzionale che quella Integrale vengono progressivamente ridotte sempre più al diminuire delle frequenze di taglio). Questo metodo di variazione "in parallelo" consente di vincolare i parametri uno all'altro; poiché quello veramente essenziale ai fini della stabilità del sistema è il parametro del sistema di feedback I (cioè f0), questo sarà variato nella procedura di ottimizzazione delle immagini, mentre sarà l'altro ad essere impostato in maniera dipendente dal primo. (Il campione è lo stesso di Fig. 3.19, in un'altra zona, a spazzata ~ 2,2 mm).


3.4.3.2 Rielaborazione dei parametri rimanenti

Procediamo ad assegnare ad Output o Input dell'ideale sistema di ottimizzazione (tuning) dello strumento (ovvero l'utente umano esperto) i parametri significativi rimanenti tra quelli fondamentali precedentemente selezionati.
I parametri che costituiranno l'"impostazione ottimale" (output del tuning) saranno evidentemente solo quelli di scansione/acquisizione che influenzano il risultato dell'esperimento senza cambiarne le caratteristiche, intendendo con questa espressione che non modifichino, di fatto, l'oggetto dell'esperimento. Ad esempio, la Spazzata (B1) non è un buon parametro "di output", nel senso che modificarla non influenza solo l'esito dell'esperimento (qualità dell'immagine) ma proprio l'oggetto dell'indagine (si va ad analizzare una porzione più o meno vasta del campione perché magari si cerca di rinvenire altre caratteristiche di questo, ma in ogni caso cambia la natura della misura stessa). Ugualmente avviene, in questo caso in modo ancora più palese, se si cambia addirittura il campione stesso (Materiale, A1).
Tutti gli altri parametri rimanenti sono quindi significativi per una generica misura SPM (rispetto alla loro variazione), non è possibile determinare un criterio ottimale d'impostazione sostitutivo, e ha senso considerarli variabili di output della rete (cioè parametri di tuning delle immagini del microscopio). Essi sono B6, B8, B9, B10 (vedere Fig. 3.22). A partire da questi nella discussione che segue si cercherà di ridurre eventualmente l'insieme ad un sottoinsieme dei parametri effettivamente significativi nel tuning. Infatti in questo modo si ridurrebbe la complessità del sistema, o più precisamente del nostro modello del sistema.
Volendo, analogamente, determinare i parametri del "campione" (input del tuning), si verifica una situazione opposta: gli unici candidati che risultano evidenti a prima vista sono il parametro Materiale del campione (A1, con le sue proprietà fisico-chimiche) e le Condizioni Ambientali (A2), ma nasce il quesito se sia opportuno espandere stavolta, invece che ridurre, l'insieme di parametri, in modo da avere effettivamente una rappresentazione esauriente della situazione, (cioè occorre considerare, in un certo senso, una specie di parametro A1+A2 "esteso").
La considerazione che sia opportuno ampliare la descrizione del campione ad un insieme di dati che vanno oltre al generico identificativo del materiale di cui esso è composto nasce dalle osservazioni seguenti.
Il sistema di tuning modella una funzione di trasferimento, in questo caso quella del solo attuatore dello strumento più che dello strumento SPM nel suo complesso. In ogni caso l'errore da solo risulta insufficiente a caratterizzare l'Input (cioè a rappresentare le variabili indipendenti della funzione modellizzata), perché si avrebbero più valori di output in corrispondenza dello stesso Input, ovvero la rete neurale modellizzerebbe una relazione che non sarebbe una funzione. Infatti occorre osservare che diversi campioni, intesi come vetrini fisici di materiali distinti, forniranno in generale alla rete neurale un "errore" (input del sistema di tuning dei parametri "impostazione ottimale") che potrà essere uguale in situazioni diverse. Ovvero, questo indice "errore", che rappresenterà la deviazione dell'immagine da quella ottimale, può essere uguale per diversi materiali. Per poter avere come obiettivo della rete la modellazione di una funzione, occorre distinguere ulteriormente le variabili indipendenti in modo che ad ogni vettore di input ne corrisponda uno ed uno solo di output; questo può essere fatto aggiungendo appunto all'input del sistema di tuning, oltre all'"errore" sulla specifica immagine (feedback necessario per una procedura iterativa, che decide di procedere solo se il risultato non è soddisfacente cioè l'"errore" troppo grande), la descrizione del campione. Quindi l'input completo del sistema di tuning potrà essere solo il "vettore campione" più l'errore.
Come misura dell'errore, o indice di deviazione dell'immagine dalla qualità ottimale, si potrà prendere direttamente la somma delle deviazioni della grandezza fondamentale misurata dallo strumento SPM (deflessione della microleva nell'AFM, corrente di tunnel nell'STM) da quella costante impostata ad inizio esperimento (Setpoint o Reference), relativamente a tutti i punti dell'immagine, quindi D-D0 o IT-IT0 (dove D e/o IT possono essere viste come funzioni del punto sull'immagine D(X,Y) e IT(X,Y), o del tempo durante la scansione, D(t) e IT(t)). Questi valori D-D0 e IT-IT0 costituiscono localmente l'errore puntuale del ciclo di feedback del sistema di pilotaggio del campione, (per la discussione di questi parametri e la loro interpretazione si rimanda indietro alla relativa presentazione, al paragrafo
3.4.2.2, del parametro B6: "Canali" acquisiti).
Si osservi che una formulazione matematica dell'"errore", inteso come deviazione delle immagini dalla qualità ottimale, è quasi indispensabile. Diversamente si potrebbe pensare che sia sufficiente determinare l'immagine ottimale giudicandone la qualità "ad occhio nudo", in base all'abilità dell'osservatore esperto. Tuttavia la presenza di un parametro matematico che funga da strumento di verifica della qualità dell'immagine può consentire di evitare a volte delle cantonate, che si possono incontrare nel caso di immagini apparentemente "belle", in quanto, ad esempio, uniformi al loro interno e che presentano regolarità spaziali (periodicità), ma che possono a volte essere totalmente fuorvianti. Ad esempio, un'immagine quasi perfettamente piatta può essere reale, come l'immagine di un piano liscio di un chip di silicio, o dovuta al fatto che non arriva praticamente segnale anche se il campione è molto corrugato; allo stesso modo un'immagine che presenti una struttura periodica potrebbe essere reale, come un reticolo cristallino, oppure la periodicità potrebbe essere derivata da un rumore periodico, come fluttuazioni del segnale di un determinato periodo caratteristico. Quindi occorre sempre avere ben presente il campione che si sta analizzando, e conoscere l'aspetto atteso di questo, almeno approssimativamente; quindi, chiedersi in ogni caso se le immagini ottenute sono reali o possono essere generate da artefatti o essere comunque ingannevoli, in quanto pensare di poter valutare la qualità dell'immagine basandosi sempre ed esclusivamente sulla percezione visiva della stessa da parte dell'operatore è utopistico, anche in presenza di un operatore dotato di grande esperienza. Si pensi soltanto alla gran varietà di illusioni ottiche cui va soggetto il sistema visivo umano nel confrontare le immagini (vedere il paragrafo 1.2.2). Ad esempio, una molto comune nelle immagini AFM/STM, e di importanza critica, è l'"inibizione della luminosità", che interviene quando, ad una comparazione tra due immagini che presentano grossolanamente lo stesso pattern, ciascuna con due livelli di toni di grigio e complessivamente con tre livelli di cui in comune quello intermedio, questo stesso livello di grigio viene valutato dall'occhio umano come di diversa intensità, in relazione al contrasto con l'altro livello di grigio, diverso, che gli è affiancato in ciascuna immagine.



Fig. 3.25: una esemplificazione dell'effetto di inibizione della luminosità. In a) il tono di grigio dei quadrati interni è lo stesso, ma sembra più chiaro all'interno del quadrato nero, per contrasto, che non all'interno del quadrato bianco. In b) è rappresentato un caso pratico di occorrenza dell'effetto descritto in immagini SPM: si tratta delle matrici sinistra (Forward) e destra (Backward) di Torsione T di un AFM in contatto utilizzato su un pattern di proteine. Nelle tre zone indicate dalle lettere nell'immagine a sinistra si hanno due livelli di grigio corrispondenti a valori di attrito diversi di tre distinte sostanze, e precisamente: in A (Amminosilano) si ha un livello d'attrito minore, pari a ~30, in unità arbitrarie, mentre in B (BSA: Bovine Serum Albumine, albumina da siero bovino) e F (Fibronectina) si ha un valore approssimativamente uguale, pari a ~60. Sull'immagine destra si hanno all'incirca gli stessi valori, cambiati di segno (in quanto l'attrito è sempre opposto alla direzione del moto), e cioè ~-30 sulla zona A, ~-60 sulle zone B e F. Essendo le 2 immagini sinistra e destra rappresentate con la stessa palette di toni di grigio, questi corrispondono ai valori numerici che rappresentano, e pertanto sulla zona A a sinistra il grigio è comunque più chiaro (valore ~30) di quello sulla zona A a destra (valore ~-30), mentre sembra il contrario.


Questo è dovuto al fatto che secondo la "Gestalt theory" noi percepiamo le immagini nel loro insieme, e non riusciamo ad estrarre realmente le singole caratteristiche, cosa che si può fare confrontando i numeri che generano la rappresentazione in immagini, tramite apposito software. L'intervento dell'operatore umano è invece assai più efficace in sede di verifica, quando si tratti solo di formulare giudizi sulle scelte effettuate preventivamente da un qualche meccanismo di analisi matematico/statistica delle immagini, implementato via software.
L'utilizzo di un parametro calcolato sulle immagini costituirebbe un metodo perfettamente riproducibile tra vari esperimenti di uno stesso strumento SPM. Inoltre fornirebbe un criterio ben definito da utilizzare come standard anche in considerazione dell'eventualità di una commercializzazione di un sistema SPM realizzato artigianalmente (gli SPM commerciali, pur se dotati di software di analisi ed elaborazione delle immagini molto evoluti, lasciano in genere a desiderare sotto questo aspetto, forse perché potrebbe rivelarsi, possiamo magari anche pensare con un pizzico di malizia, troppo autocritico?) Avere un parametro di valutazione che possa descrivere in maniera oggettiva la qualità (intesa quindi come fedeltà al campione) delle immagini potrebbe essere infine di grande utilità per confrontare il funzionamento di uno stesso strumento in condizioni diverse, o di due strumenti distinti che per forza di cose sono costretti a lavorare in condizioni normalmente diverse: magari uno operante ad esempio in aria in un laboratorio isolato da un centro cittadino e in una località con normalmente l'80% di umidità, ed un altro in un dipartimento universitario al centro di una grande città e vicino a strade molto trafficate (vibrazioni), in un luogo che mediamente presenta il 20% di umidità.

La conclusione di quest'analisi è comunque che le variabili candidate a descrivere il campione devono essere ampliate rispetto ai semplici parametri A1 e A2. L'espansione dovrà provvedere innanzitutto ad estrapolare dal parametro "Materiale" (che è di fatto solo descrittivo) le proprietà chimico-fisiche di cui sopra che si ritengono fondamentali per l'esito di una misura SPM), e quindi ad individuare in generale anche altri parametri che distinguano realmente il campione, tenute in considerazione anche le debite condizioni al contorno. Anche questi parametri contribuiranno a determinare, in generale, un insieme diverso di valori dell'"impostazione ottimale".

3.4.3.3 Vettore di Input: "Campione"

Le proprietà chimico-fisiche che posso essere individuate come probabilmente le più importanti del campione (o più precisamente dell'interfaccia punta-campione) sono fondamentalmente due: la "Durezza" e l'"Adesività". La Durezza in qualche modo rende conto del problema dell'alterazione del campione, sia essa di origine elettrica (STM) che meccanica (AFM). Ad esempio nel primo caso la punta STM a tensioni di polarizzazione troppo elevate e magari impulsate può formare dei veri e propri buchi nella superficie del campione, estraendone materiale, (oppure può al contrario, dipende evidentemente dal segno della polarizzazione, "sparare" della materia, come fossero nano-gocce, dalla punta al campione). Ma nel caso AFM forse l'alterazione del campione è ancora più comune e difficile da evitare, essendoci un vero e proprio contatto punta-campione: quest'ultimo è infatti spesso deformato elasticamente (con generazione di artefatti nelle immagini) o, in casi limite, perfino plasticamente, con vero e proprio logorio del campione (le cui strutture superficiali sono "spazzate" dalla punta se troppo debolmente fissate al substrato o scavate dalla stessa "molli"), nel caso in cui sia stata selezionata una forza di contatto eccessiva. La durezza del campione è quindi il primo requisito perché la fisica dell'interazione punta-campione sia, da un lato, stabile, e dall'altro assicuri immagini che riproducono il profilo reale del campione. Per l'aspetto chimico, l'eventuale tendenza del campione a "legare" in qualche modo la punta (con qualsiasi tipo di legame, vero legame chimico o creazione di giunzione viscosa) può essere interpretata appunto con un generico parametro di nome "Adesività", che renda conto della tendenza alla interazione dei due corpi all'interfaccia, quale che sia l'origine di questo effetto.
Una considerazione ulteriore è che le proprietà fisico-chimiche, o perlomeno quelle chimiche cioè l'"Adesività", dipendono non solo dal materiale in sé ma anche dall'ambiente (temperatura e umidità, per esempio). A questo proposito occorre prendere in considerazione il parametro "Condizioni ambientali" (A2). Si osservi che a parte lo stesso "Materiale" (puramente descrittivo, ora che ne sono stati estratti i contenuti fisico-chimici) questo parametro è l'unico candidato rimasto tra quelli detti "di sessione", cioè da non variare nel corso di un singolo esperimento. In effetti, se si considera come strettamente definito all'inizio, cioè solo come ambiente di scansione (aria, liquido, atmosfera controllata o vuoto), è chiaro che per campioni duri e che non necessitano di particolari attenzioni l'ambiente normalmente selezionato sarà senz'altro la comune "aria", (per un banale criterio di massima semplicità sperimentale). Per raggiungere la risoluzione atomica potrà tuttavia essere necessario operare in vuoto, mentre per i campioni molli si dovrà probabilmente lavorare in uno dei due mezzi rimanenti; per cui in assoluto potrà aver senso vedere quali sono i parametri ottimali per uno stesso campione analizzato in mezzi diversi. Quindi si potrebbe considerare anche la presenza di un parametro "Condizioni ambientali" esplicitato come "Mezzo" materiale di immersione del campione in analisi. Di fatto, però, è possibile valutare l'effetto di questo parametro all'interno dello stesso parametro Adesività, considerando che, ad esempio, l'immersione di un campione in liquido (così come l'operazione in atmosfera controllata e in vuoto) comporta l'eliminazione dell'adesione dovuta alla presenza di un menisco generato da contaminanti (vapore acqueo) adsorbiti sulla superficie del campione, in aria. Anche le condizioni ambientali vengono intese come facenti parte di un unico simbolo descrittivo del campione, l'Adesività, intendendo con questo l'insieme degli effetti causati anche da variazioni di temperatura o, ancor più, di umidità.
Quindi, riepilogando, come descrizione complessiva esauriente del "Campione" a questo punto si ha: Materiale (comprendente l'aspetto descrittivo del mezzo) + caratteristiche chimico-fisiche che lo distinguono (Durezza e Adesività, comprendente l'aspetto funzionale del mezzo).
Un ultimo insieme di parametri significativi ci aspettiamo che sia costituito dalle caratteristiche specifiche della "porzione" di materiale analizzata, che viene descritta (almeno parzialmente, sul piano (X,Y)) dal parametro "Spazzata". Questo risulta significativo in quanto ci si attende che, innanzitutto per questioni "geometriche", sia diverso visualizzare uno stesso materiale su scale di dimensioni differenti: un medesimo vetrino (ad esempio un macrocristallo di Grafite HOPG) può essere piatto su scale del micron o almeno delle centinaia di nanometri (vedere figura successiva, parte a)), e mostrare un profilo corrugato se si scende con le dimensioni di scansione a dimensioni dell'ordine dei nanometri, per ragioni di semplice risoluzione delle immagini, (al limite, a livello di risoluzione atomica, dove il rilievo sono i singoli atomi, ogni superficie è corrugata, e per la Grafite si vede la struttura ordinata del reticolo cristallino, vedi parte b) in figura).



Fig. 3.26: a) grafite HOPG a scansione di 2 micron: si vedono zone coerenti di dimensioni lineari dell'ordine di centinaia di nm dovute ad estesi piani piatti a livello atomico (i piani della struttura lamellare), delimitati ed evidenziati dai loro bordi (che consentono di riconoscere i piani come tali, garantendo che non si tratta di semplici zone a segnale nullo). b) Grafite a scansione di 3 nm: la figura dimostra che, zoomando, in condizioni ottimali è possibile conseguire la risoluzione atomica, cioè visualizzare il reticolo cristallino.


Oppure, al contrario, un vetrino può essere molto irregolare a grandi scansioni, quando se ne inquadrano superfici molto estese (come nel caso del film spesso di polimero conduttore in figura successiva, parte a)), e liscio localmente, su zone più piccole all'interno di ciascuna regione frastagliata, sia essa monte o valle (come per la zoomata nella parte b) in figura).



Fig. 3.27: film spesso di polimero conduttore depositato per via elettrochimica. a) La scansione ha dimensioni lineari di ~2,57 mm. b) Zoomando sulla zona visualizzata in precedenza, a dimensioni ~0,2 mm, è stato possibile ottenere questa immagine, quasi perfettamente piatta (a parte la curvatura del bordo, che è stata inquadrata volutamente per evidenziare la corrispondenza della zona e la realtà dell'immagine), in quanto localizzata su un plateau delle corrugazioni topografiche presenti su più ampia scala. (Le apparenti corrugazioni sono dovute ad effetti di rumore che si è diffuso con un effetto di "blurring" sulle vicinanze in seguito all'effettuazione di un filtro passa basso 3x3).


Ricapitolando, con un'estrema semplificazione si può dire che, in generale, esistono dimensioni intermedie tra il microscopico e il macroscopico, dette talvolta "mesoscopiche", sulle quali un materiale, che su scale macroscopiche presenta rilievi, può risultare liscio, perché siamo andati a vederne una zona abbastanza piccola da essere piatta. Scendendo poi ulteriormente nello "zooming" dell'area analizzata, almeno in linea di principio possiamo in ogni caso arrivare nuovamente alla visualizzazione di differenze di quota, a livello atomico-molecolare. Queste situazioni agli estremi opposti valgono, in generale, per un medesimo qualsivoglia campione.

Con tali considerazioni abbiamo in pratica già evidenziato e definito implicitamente quelli che sono i parametri quantitativi significativi che rendono conto delle caratteristiche qualitative fondamentali delle immagini (cioè dell'aspetto generale della topografia Z) e i cui valori sono collegati alla relativa Spazzata sul campione. Si tratta delle seguenti due grandezze rappresentative fondamentali, relative ai valori di quota Z(X,Y) (che sono le informazioni caratteristiche delle immagini dei microscopi a scansione a sonda come l'AFM e l'STM, essenzialmente mappe di topografia), e precisamente: il dislivello massimo (inteso come la differenza Zmax-Zmin) e la rugosità (la cui definizione è controversa nella scienza delle superfici). Tali grandezze possono essere misurate solo a posteriori dalle stesse immagini, ma poiché è ragionevole avere una conoscenza preventiva, almeno approssimativa, per la maggior parte dei campioni che si va ad analizzare (che raramente avranno caratteristiche del tutto sconosciute), per quanto riguarda i nomi precisi dei parametri descrittivi del campione da considerare nella rete si può parlare di caratteristiche fondamentali attese, per quel dato campione, sulla dimensione Z, e quindi precisamente di "Dislivello massimo atteso" e "Rugosità attesa".
Questi due parametri Z del campione sono indubbiamente importanti per la qualità delle immagini e per la loro ottimizzazione (tuning); cioè ci si attende di dover impostare, tra le variabili di output del processo di tuning, valori ottimali diversi per campioni che presentano valori sensibilmente diversi di questi parametri. Infatti il Dislivello massimo atteso, costituendo un "carico" ovvero uno stress per l'attuatore piezoelettrico, ne mette alla prova i limiti di validità di funzionamento tramite il pilotaggio del piezo stesso (ovvero del circuito di feedback), e cioè essenzialmente coinvolge P e/o I.
D'altronde si può ragionevolmente pensare che questo solo campo non descriva in maniera esauriente l'aspetto del profilo del campione, che può influenzare il comportamento del sistema di feedback attraverso il piezo: ci si attende che conti, a scala di dimensioni fissata, anche quello che si potrebbe definire, in qualche maniera, il "fattore di forma" della superficie del campione; cioè a dire, a parità di dislivello massimo, la corrugazione locale delle zone piatte, ovvero una sorta di rugosità del campione.

Qui entra il discorso della difficoltà di formulare una definizione opportuna per un parametro matematico che descriva correttamente la nostra nozione intuitiva di rugosità. Per intendersi, un'immagine di alcune decine di micron di un chip dovrebbe presentare un elevato dislivello (scalini netti piuttosto elevati, decine se non centinaia di nanometri), ma plateau molto lisci (corrugazione locale, cioè rugosità, assai bassa). D'altro lato, un campione dall'apparenza di cluster uniformi e fitti (ad esempio un film sottile di un polimero delle opportune dimensioni laterali, diciamo 1 micron) potrebbe presentare basso dislivello massimo complessivo (dell'ordine dell'altezza di un cluster tipico), ma rugosità relativamente elevata (in pratica dello stesso ordine di grandezza del dislivello massimo, valore relativo certamente molto superiore a quello nel caso del chip).
Come grandezza che rende conto della rugosità di una superficie, in letteratura (sia per quanto riguarda la terminologia tecnico-ingegneristica delle superfici macroscopiche che per quanto riguarda la microscopia a scansione) si può facilmente verificare che viene normalmente utilizzata la RMS (Root Mean Square) della distribuzione di quote Z(X,Y). La formula utilizzata per calcolarla è la seguente:



dove NxN è il numero di pixel cioè "data points", e Zi,j=Z(Xi,Yj), mentre è il valor medio della distribuzione. In pratica Rq corrisponde alla deviazione standard della distribuzione delle altezze, cioè è legato alla larghezza della curva di distribuzione, che normalmente sarà poco distante da una distribuzione simmetrica intorno alla media, cioè Gaussiana. La limitazione, subito evidente, di questo parametro così definito, è che esso non contiene informazioni spaziali sul piano (X,Y) relativamente alla densità di distribuzione di corrugazione, che è quanto noi intendiamo comunemente per rugosità. Infatti, ad esempio, un'immagine fittizia costruita con una periodicità lungo X del tipo A·sen(bX), dove l'ampiezza A è fissata e costante ed il parametro b rende conto della frequenza dell'immagine, cioè del numero di periodi contenuti in essa, risulta avere la stessa "Rugosità" Rq per qualsiasi numero di periodi (interi) b si decida d'includere nell'immagine.
Anche altri parametri suggeriti in letteratura sembrano ugualmente inadeguati a soddisfare la nostra nozione di rugosità, per l'assenza di contenuto spaziale sul piano (X,Y), mentre altri ancora, assai più complessi, sono effettivamente in grado di rendere conto della variazione spaziale della rugosità: si tratta di tutta quella categoria di grandezze legate alla trasformata di Fourier dell'immagine che portano nello spazio delle frequenze, dette funzioni di autocovarianza bidimensionale. Noi suggeriamo qui la "ricetta" per determinare un parametro di rugosità che rimanga nello spazio reale dell'immagine, così definito. Con un semplice programma in linguaggio C si possono costruire, per ciascuna delle immagini Forward e Backward (quando acquisite entrambe), due immagini di derivata della topografia, e precisamente di derivata parziale lungo X (Forward e Backward) e lungo Y (Forward e Backward). Queste immagini rendono quindi conto delle pendenze dell'immagine di topografia nelle due relative direzioni indipendenti, cioè sono una misura delle variazioni di topografia, ovvero dei bordi delle strutture presenti sulla porzione di materiale analizzata (siano esse fini, diciamo cluster, intermedie, isole, o grossolane, montagne e valli). Poiché, tuttavia, le pendenze misurate hanno un segno e tendono ad annullarsi, in quanto mediamente all'interno di un'immagine vi saranno, in ciascuna direzione, all'incirca tante "discese" quante "salite", vanno considerati i valori assoluti delle derivate. Per ciascuna delle matrici di derivata parziale così ottenute si determinano quindi i valori assoluti, in modo da avere una grandezza "Rugosità" locale su ciascun punto definita positiva, che renda conto della presenza di bordi in corrispondenza di un'asperità senza discriminare se questi siano "in salita" o "in discesa". Inoltre è opportuno dividere questi valori per l'ampiezza del segnale di topografia Z, cioè per il dislivello massimo DZ=Zmax-Zmin, per renderne indipendente la grandezza calcolata (giacché la derivata porta con sé a fattore d'amplificazione l'ampiezza del segnale di topografia originario). Si ottengono in questo modo due matrici di Rugosità Rx(X,Y) e Ry(X,Y) lungo X e Y rispettivamente, normalizzate all'ampiezza della topografia Z. Il tutto va ulteriormente normalizzato a 1, per fornire una misura di Rugosità elegante e facilmente comprensibile. Per far questo va determinato il massimo valore che può assumere la grandezza calcolata e nuovamente è necessaria una divisione per questo valore. Su queste immagini è poi possibile estrarre dei valori medi che forniscono una misura della "Rugosità" (in unità arbitrarie) sulle due scansioni Forward e Backward, ed ancora un'ulteriore media dei valori complessivi ottenuti: <R>=(<Rforward>+<Rbackward>)/2.
Il valore di "Rugosità" così definito risulta dal rapporto incrementale di due grandezze con le stesse dimensioni (entrambe dimensioni lineari di spazio), che possiamo convenire di esprimere nella stessa unità di misura (ad esempio nm/nm). Di più, per svincolare la caratteristica dell'immagine da ciò che essa rappresenta, che resta una preoccupazione dell'utilizzatore, conviene pensare a questo rapporto incrementale nelle unità che possiamo chiamare "punti": in pratica "pixel" sul piano (X,Y), e lungo Z i "valori Z" in cui viene quantizzato il segnale di tensione della topografia.



Fig. 3.28: immagini e relativi valori del parametro "Rugosità" R da noi definito, a verifica della sua adeguatezza: a) scalino di Silicio alto ~900 nm, a spazzata 8 mm e con dislivello massimo DZ=33902 punti (unità arbitrarie); b) film sottile di polimero conduttore depositato per via elettrochimica, con altezza tipica ~50 nm, a spazzata 1 mm e con dislivello massimo DZ=825 punti; c) e d) immagini fittizie create ad hoc per il test della "Rugosità": si tratta di sinusoidi di ampiezza 100 punti, e 2 e 10 periodi (lunghezze d'onda) completi, rispettivamente. In particolare su c) e d) la RMS fornirebbe la stessa rugosità, mentre il nostro parametro funziona come desiderato; è invece sensibile alla sola frequenza, al contrario della RMS.


In un caso d'esempio da noi analizzato, che è quello rappresentato nella figura precedente, i valori Z(X,Y) memorizzati nelle immagini erano interi tra -32767 e 32767 (ovvero la scheda d'acquisizione dati in cui erano divisi i segnali di tensione denominati Topografia, tra -10 e +10 V come minimo e massimo, era a 16 bit, cioè a 216=65536 valori, metà disponibili per valori negativi di tensione e metà per valori positivi). In ogni caso il valore finale calcolato, che risulta espresso in punti/punti, è un numero puro.
Nell'ultima figura incontrata sono visualizzate immagini tipo significative ai fini della valutazione dell'adeguatezza della nostra rappresentazione della grandezza "Rugosità". La grandezza qui proposta risulta effettivamente rispondere alla nozione intuitiva di rugosità: infatti in b) (dove le parentesi angolari stanno per la media di R) è sensibilmente maggiore (circa 6 volte) del valore in a), pur presentando la relativa topografia un dislivello massimo molto minore (circa 41 volte); inoltre tra c) e d) fornisce valori distinti, ben maggiore quello della seconda immagine (di un fattore circa 5).
Tramite questi nuovi parametri, "Dislivello massimo atteso" e "Rugosità attesa", che sono sempre in relazione, ovviamente, alla "Spazzata", è possibile distinguere un campione dagli altri per un ulteriore aspetto ancora, in aggiunta alla distinzione fornita in base al suo materiale ed al mezzo di esecuzione dell'esperimento (campo "Materiale") ed alle sue caratteristiche chimico-fisiche più significative, dal punto di vista degli effetti sul contatto (campi "Durezza" ed "Adesività").

3.4.3.4 Vettore di Output: "Impostazione ottimale"

Vogliamo analizzare l'opportunità di inserire in questo set i parametri individuati come candidati, procedendo tra essi per esclusione.
Consideriamo per primi i Parametri di controllo del sistema di feedback: G,  P,  I. Richiamiamo rapidamente il loro significato (già ampiamente descritto nel paragrafo 3.1.3) e discutiamoli in dettaglio.



Fig. 3.29: è riportato l'effetto di un aumento di G su un'acquisizione su aggregati di microsfere di Polistirene, (successivamente analizzati in
Fig. 3.31 anche al variare di In.G). In queste immagini P e In.G erano stati fissati a 3 e 1 rispettivamente, mentre i valori di G sono stati modificati tra 1, 5 e 10.


G è il guadagno finale (numero puro) del segnale trattato dal sistema di controllo dopo la ricomposizione dei due rami elaborati dalla porzione proporzionale e da quella integrale del feedback; pertanto in condizioni ideali di buona sensibilità dello strumento possiamo escluderlo dai parametri fondamentali, in quanto influenza esclusivamente l'intensità del segnale rilevato, ma non la sua natura. Si tratta di un discorso intrinsecamente poco rigoroso, ma di indubbia validità sperimentale: se si ottengono immagini che comunque presentano strutture topografiche (non piatte) e queste hanno quote apparenti dei rilievi (dedotte dalle sensibilità Z nominali del piezo in uso, Sz) ragionevolmente prossime ai valori attesi, non v'è motivo di amplificare questo segnale. In effetti è stato riscontrato che le deviazioni dei dislivelli topografici su campioni noti (ad esempio per campioni di microsfere di Polistirene, griglie di calibrazione di passo 1 e 10 mm, chip di silicio, etc.) sono minori di quelli attesi (inferiori del 20%), e quindi rientrano nelle procedure di variazione dei valori nominali tipiche della taratura dei piezoelettrici, che, come si sa, occorre realizzare periodicamente. L'aumento di G rispetto al valore di partenza 1 non è quindi necessario in genere, ma anzi introduce spesso solo le tipiche problematiche di un'amplificazione eccessiva: overshoot, oscillazioni, fino eventualmente alla saturazione, (vedere figura precedente).
Per tutte le generiche misure SPM si consiglia di prendere G=1; il tuning "fine" dello strumento, per quanto riguarda l'amplificazione del segnale, sarà piuttosto realizzato tramite la variazione di P.



Fig. 3.30: immagini di una sezione orizzontale di un chip, effettuate al variare del parametro Proporzionale P. Per quanto le immagini sembrino a prima vista equivalenti, la tracciatura di una sezione del profilo in alcuni singoli punti chiave (ad esempio, in questo caso, in corrispondenza degli scalini associati alle piccole buche in alto a destra) evidenzia in realtà una differenza sostanziale: già nella seconda sezione compare il fenomeno di overshoot, per cui un eccessivo P genera, in corrispondenza di uno scalino, un segnale che va oltre il reale segnale d'errore da annullare, provocando un picco innaturale, mentre nella terza sezione questo effetto è ancora più evidente.


P è il guadagno (numero puro) della porzione di segnale trattata, nell'ambito del controllo PI, col feedback Proporzionale. È importante in quanto, insieme a I, determina la convergenza, la rapidità e la precisione con cui il sistema si avvicina al segnale di riferimento (Setpoint). Un esempio dell'effetto della variazione di P è riportato nella figura precedente. P va senz'altro inserito tra i parametri d'interesse per la variazione nel tuning.
I varia contemporaneamente guadagno e frequenza di taglio del ramo Integrale (passa basso) del feedback. Corrisponde cioè a quella precisa costante tempo ti(=RC) con cui il segnale di feedback sale per rispondere all'errore (la frequenza di taglio relativa del passa basso è f0=1/2pti); d'altronde entra anche a fattore dell'ampiezza del segnale, come 1/ti. Quindi aumentando I (cioè ti) il feedback è lento a seguire il segnale, e l'amplificazione 1/ti diminuisce (cioè diminuisce il peso dell'Integrale rispetto al Proporzionale). Sull'opportunità di inserirlo tra i parametri per il tuning vale quanto detto per P. Un esempio di effetto di variazione di I, dal punto di vista della frequenza di taglio associata f0, è riportato in Fig. 3.24, dove, parallelamente a f0, viene impostata nello stesso modo anche fLP, frequenza di taglio del filtro Passa Basso, equivalente all'Integrale, inserito sul ramo di feedback trattato con il proporzionale P.
Per quanto riguarda il parametro da noi denominato Input Gain In.G ed altri eventualmente della stessa natura o con questo confrontabili, si tratta in tutti i casi di variabili che influenzano la generica sensibilità dello strumento, nell'ipotesi di piccoli segnali in uscita, andando ad agire direttamente sul segnale proveniente dalla sonda. L'esperienza insegna che nella maggior parte dei casi è sufficiente mantenere In.G (o qualsiasi altro parametro equivalente) impostato ad 1, mentre per i valori superiori si riscontrano oscillazioni nella risposta del sistema di feedback (dovute alla dinamica limitata dell'attuatore piezoelettrico), che possono generare anche una saturazione, parziale o completa, del segnale finale (immagini). Ad esempio nella figura seguente sono riportate 3 immagini di un campione a più livelli di topografia (microsfere di Polistirene aggregate) che mostra, a partire da una condizione di buona visualizzazione con In.G=1, l'effetto tipico di un aumento di questo parametro a 10 e 100. Si decide quindi che In.G andrà mantenuto sempre a 1.



Fig. 3.31: è rappresentato l'effetto tipico di un aumento di In.G (da 1 a 10 a 100) sull'immagine ottimale degli aggregati di microsfere di Polistirene, (già analizzata in
Fig. 3.29 al variare di G; qui scan size=5 mm, G=1).


Consideriamo ora il parametro Setpoint o Reference, cioè forza verticale Fv (o deflessione D0) per l'AFM, corrente di tunnel IT0 per l'STM. Come abbiamo già avuto modo di osservare si tratta di un parametro che, insieme alla frequenza di scansione, influenza in maniera critica il meccanismo del contrasto delle immagini SPM. In particolare nell'STM valori anomali di corrente di tunnel impostata possono fornire una gran varietà di strani effetti geometrici sulle immagini, anche in funzione della eventuale molteplicità della punta (sempre presente in una qualche misura), se non addirittura alterare il campione in maniera più o meno reversibile, mentre nell'AFM il vero e proprio contatto genera spesso artefatti, tramite le condizioni di relativa instabilità della dinamica punta-campione. Valgono per questo un po' le stesse osservazioni fatte al precedente sottoparagrafo (3.4.3.3) per il parametro "Durezza" del campione, ad esso complementare. È infatti evidente che il campione può essere considerato "duro" se l'interazione cui esso è sottoposto con la punta è relativamente "debole", o al contrario "molle" se questa è relativamente "forte". In effetti ci si attende che il comportamento di un campione possa essere diverso, durante la visualizzazione, in relazione al valore di forza di contatto impostato: in generale un campione molle, ad esempio di natura biologica (cellula, DNA), potrà modificare il proprio profilo in presenza di correnti di tunnel (STM) o forze verticali di contatto (AFM) piuttosto elevate, mentre si suppone che questo non avvenga per campioni rigidi indeformabili, come ad esempio un chip di silicio. Un tipico caso dell'effetto della variazione dell'interazione di riferimento (Setpoint) su un campione relativamente molle è presentato nella figura successiva.



Fig. 3.32: immagini di microsfere di Polistirene di diametro 0,5 mm (la spazzata è ~3 mm), realizzate con la tecnica AFM. È stata utilizzata una stessa microleva (Triangolare Grande TG, costante elastica k=0,03 N/m), a valore di Setpoint (forza) crescente, pari rispettivamente a 0,03, 0,47 e 1,58 nN.


Nelle immagini riportate nella figura precedente si osserva che a forza bassa a) le sfere risultano effettivamente circolari (sul piano dell'immagine, bidimensionale) ma l'immagine presenta alcune righe in corrispondenza delle quali la punta sembra essere strisciata sul campione, probabilmente perché la forza di contatto Fv molto bassa genera instabilità. Esiste un valore di forza intermedia in corrispondenza del quale b) non compaiono più strisciate dovute all'instabilità del contatto (l'acquisizione è stata ripetuta diverse volte e mai si è avuta occorrenza di questo fenomeno), ma le sfere cominciano ad essere schiacciate: assumono forma più rettangolare e colmano maggiormente le buche interstiziali, soprattutto nella direzione di scansione, che è quella in cui la caratteristica topografica, deformata verso il basso per la elevata Fv, tende anche ad essere trascinata e deformata lateralmente, per effetto della forza d'attrito. A forza Fv ancora maggiore c) l'effetto indesiderato di schiacciamento e stiramento delle sfere è ancora più accentuato, e cominciano ad apparire nuovamente delle righe con fenomeni d'instabilità del contatto (una Fv troppo elevata può generare stick, cioè inpuntamento, sulle asperità topografiche più elevate).
Queste immagini facevano parte di una serie di misure più estesa, che presentava, per immagini intermedie, una considerevole continuità nell'andamento ivi descritto.
Il caso dell'STM è diverso e in generale più difficile da interpretare, quanto alle alterazioni indotte nel campione da un'interazione di eccessiva intensità di questo con la punta. Si tratta pertanto di un parametro significativo che si consiglia effettivamente di variare nel tuning delle scansioni-acquisizioni SPM.
Relativamente alla Frequenza di riga fscan, per quanto riguarda le ragioni della significatività di questo parametro in un generico esperimento SPM si è già detto esaustivamente nel paragrafo precedente, e le stesse ragioni, in assenza di un criterio deterministico indipendente per l'impostazione di un valore ottimale per esso, spingono a considerare il parametro nella procedura di tuning delle scansioni-acquisizioni. Le immagini riportate di seguito, per due diversi campioni d'esempio, confermano l'importanza della variazione di questo parametro, ai fini dell'ottimizzazione delle immagini.



Fig. 3.33: immagini esemplari di serie di acquisizioni realizzate a diverse fscan, pari, nella fattispecie, a 2, 4, 8 e 12 Hz rispettivamente. Il campione rappresentato sulla fila superiore di immagini è pelle di cipolla, a spazzata ~13 mm, quello sulla fila inferiore è uno scalino di Silicio, a spazzata 8 mm. In entrambi i casi, quindi per campioni assai diversi, si osserva che al crescere di fscan i contorni delle caratteristiche topografiche risultano ampliati e sfumati, e in taluni punti segmentati lungo la direzione di scansione X, ed estesi oltre la loro reale posizione.


Concludendo, con la nostra analisi siamo stati in grado di individuare e caratterizzare i parametri più importanti da considerare per l'utilizzo nella procedura di tuning, fornendo in pratica un vademecum e uno schema mentale di partenza solido ed efficace per un generico utente SPM alle prime armi. Questi parametri sono rappresentati nella tabella seguente.



Fig. 3.34: il compendio finale della nostra analisi, rappresentato come insieme di valori di Input e Output della procedura di ottimizzazione (tuning) delle immagini che va sempre effettuata dall'operatore SPM al fine di raffinare la qualità delle immagini fornite dal proprio strumento. A costui si consiglia di variare i parametri di Output a seconda delle caratteristiche di quelli di Input, e imparare col tempo ad associare automaticamente, in base all'esperienza, i valori di Output migliori corrispondenti ai dati "valori" di Input imposti dalle necessità sperimentali.